Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Akkarin
2020-07-24, 14:17:32
https://videocardz.com/newz/nvidia-a100-ampere-benchmarked-the-fastest-gpu-ever-recorded
Hat die A100 wirklich nur 250W TDP ? Das müsste eigentlich doch bekannt sein ?
Performance zuwachs ist... ok ? Evt. ? Gegenüber der V100 +25% absolute perf, und damit auch perf/W da selbe TDP. Perf pro bandbreite und core ist jedoch sogar 10% niedrieger, perf/transistor sogar um 50% (!).
Wobei fraglich ist inwiefern OctaneRender mit compute Karten übertragbar auf Spieleperformance ist. Es wurden ja in A100 vor allem auch die FP16 perfomance aufgebohrt, das wirkt sich natürlich auf das Transistorbudget aus. Perf/Bandbreite ist aber immernoch ernüchternd, und besonderst hoch wird auch nicht getaktet.
edit: perf/FP32 ist ein plus von 5-6%.
edit2: Die im Titel stehenden +43% sind gegenüber TU102, welcher weniger als die Hälfte der Bandbreite hat !
pixeljetstream
2020-07-24, 15:51:28
Je nachdem welche Ausführung der A100 sind die TDPs anders, das steht ja auch unten bei der von dir verlinkten Seite. Die Tesla addin boards haben meist nicht so viel Watt, weil Dauerbetrieb in normalen Rechnern möglich sein muss.
Transistorenanzahl sind denke vom vollen Chip, nicht die Teildeaktivierung
IMO ist’s aufgrund der Konfiguration und Anwendungen sinnfrei Vergleiche zu den Consumer Chips zu machen.
rentex
2020-07-24, 19:20:23
@pixeljetstream Genau.
Leonidas
2020-07-25, 10:58:45
Hat die A100 wirklich nur 250W TDP ? Das müsste eigentlich doch bekannt sein ?
PCIe-Karte: Ja.
SMX4-Modul: 400W
Letzteres ist in der Praxis aber sicherlich schneller (trotz nominell gleicher Daten).
Troyan
2020-07-25, 12:34:28
Ihr glaubt wirklich, dass Nvidia genau jetzt so überheblich sein kann und einen schlechteren Prozess auswählen kann, weil man glaubt man wäre unantastbar? Komisch, ich habe sowas schon mal woanders gesehen und das ging gewaltig in die Hose ;D
Aha. Also war AMD "überheblich", weil die auf dem miserablen 7nm Prozess von TSMC gesetzt haben, statt den viel modernen 16nm zu nehmen? ;D
Blediator16
2020-07-25, 15:33:59
Aha. Also war AMD "überheblich", weil die auf dem miserablen 7nm Prozess von TSMC gesetzt haben, statt den viel modernen 16nm zu nehmen? ;D
Da ist sie wieder. Die Überhelblichkeit :rolleyes:
dargo
2020-07-25, 16:38:02
Wahnsinnig spannend, die 16gb für navi sind seit monaten doch klar.
Es war überhaupt nichts klar. Bis vor kurzem hieß es noch 384Bit SI, ergo mit hoher Wahrscheinlichkeit 12GB Speicher da 24GB zu teuer wären.
Ex3cut3r
2020-07-25, 17:14:47
Es war überhaupt nichts klar. Bis vor kurzem hieß es noch 384Bit SI, ergo mit hoher Wahrscheinlichkeit 12GB Speicher da 24GB zu teuer wären.
Mit 16GB ziehe ich eine AMD absolut ernsthaft in Betracht. Bitte aber für nur 700€ max AmD. Nvidia mit ihren 8-10GB Vram können sich das in die Ohren schmieren. :D
Ich kauf doch nicht zum dritten mal in folge 8GB. Leckt mich.
rentex
2020-07-25, 17:34:40
700€? Definitiv kommt das nicht so. Schon vergessen?! AMD möchte Geld verdienen.
dreamweaver
2020-07-25, 17:51:50
Wie schnell nach Release der 3080 ist eigentlich mit eigenen Kühl-Lösungen der Hersteller zu rechnen? Hab das gar nicht mehr so auf dem Schirm. Kommt das quasi direkt mit Release oder erst Wochen/Monate später?
BlacKi
2020-07-25, 17:55:33
Wie schnell nach Release der 3080 ist eigentlich mit eigenen Kühl-Lösungen der Hersteller zu rechnen? Hab das gar nicht mehr so auf dem Schirm. Kommt das quasi direkt mit Release oder erst Wochen/Monate später?
irgendwas zwischen 2-4 wochen wenn ich mich recht erinnnere. wasserkühler können länger dauern.
Birdman
2020-07-25, 17:57:13
Wenn AMD eine Karte mit 16GB bringt und diese noch günstiger als nVidia positioniert, dann heisst dies nichts anderes als dass die GPU nicht viel taugt und man das Zeugs daher über den vRAM und den Preis an die Leute zu bringen versucht.
Ex3cut3r
2020-07-25, 17:57:42
700€? Definitiv kommt das nicht so. Schon vergessen?! AMD möchte Geld verdienen.
Ich gehe davon aus. Das AMD sich wieder nur mit der 3080 messen kann. Die Ti Version sprich 3080Ti wird wieder konkurrenzlos bleiben. Und auch wieder 1200€ kosten. Die 3070 sehe ich bei 500-600€ und die 3080 non Ti bei 700-800€ ergo 700€ für die AMD Karte. :up:
Die 3070 sehe ich eigentlich als Optimal an für jeden Gamer. Mit 8GB aber ein schlechter Witz, daher Ladenhüter.
BlacKi
2020-07-25, 18:02:11
Wenn AMD eine Karte mit 16GB bringt und diese noch günstiger als nVidia positioniert, dann heisst dies nichts anderes als dass die GPU nicht viel taugt und man das Zeugs daher über den vRAM und den Preis an die Leute zu bringen versucht.
bei einer ramverdoppelung ja, aber ne 700-1000 euro karte kann man nicht mit 8gb bringen, nicht mehr 2020, das ist schon bei einer 3070 mit tensor kompression grenzwertig. deshalb halte ich 12-16gb für einen normalen speicherausbar in dieser preisklasse.
fondness
2020-07-25, 18:13:17
Wenn AMD eine Karte mit 16GB bringt und diese noch günstiger als nVidia positioniert, dann heisst dies nichts anderes als dass die GPU nicht viel taugt und man das Zeugs daher über den vRAM und den Preis an die Leute zu bringen versucht.
Bei einem 512-bit SI haben sie nicht wirklich eine Wahl. 8GB ist keine Option, bleibt nur 16 GB. Genauso wie NV bei einem 384-bit SI eigentlich nur 12 GB wählen kann.
Dampf
2020-07-25, 18:51:03
Die 3070 sehe ich eigentlich als Optimal an für jeden Gamer. Mit 8GB aber ein schlechter Witz, daher Ladenhüter.
Ladenhüter, meinst du das ernst? Als ob die 50 Leute die ständig wegen VRAM rumweinen da ins Gewicht fallen würden :biggrin:
Nazar
2020-07-25, 18:57:35
700€? Definitiv kommt das nicht so. Schon vergessen?! AMD möchte Geld verdienen.
Als vom Aktiengeschäft getriebenes Unternehmen sind Marktanteile das A und O. Erst wenn der Marktanteil ausreichen vorhanden ist, kann man anfangen "Geld zu verdienen".
Mit den derzeitigen Marktanteilen von AMD im GPU Bereich kann man "kein Geld verdienen" und schon gar nicht die Aktionäre zufriedenstellen. Man muss langfristig planen und dass das AMD kann, zeigen sie im CPU Sektor.
Das Zauberwort ist und bleibt "Marktanteile" und um damit Geld zu verdienen muss AMD erst noch viel bluten. Das ist ein längerfristiger Prozess, währenddessen Gewinnmargen eher nebensächlich sind.
All or nothing sollte die Devise von AMD sein. Das heißt nun nicht, dass AMD alles verschenkt aber sie werden mit Sicherheit nicht mit so hohen Preisen ankommen wie Nvidia, nicht mal annähernd (wenn die Leistung stimmt).
Nvidia hat den Vorteil des Etablierten, während AMD sich selbst bei gleicher Leistung erst noch in den Markt "einkaufen" muss. Je aggressiver, umso besser! :wink:
Es kann durchaus möglich sein, dass die Preise sich bei 700-800€ einpendeln werden.
Wenn AMD eine Karte mit 16GB bringt und diese noch günstiger als nVidia positioniert, dann heisst dies nichts anderes als dass die GPU nicht viel taugt und man das Zeugs daher über den vRAM und den Preis an die Leute zu bringen versucht.
Also diese "Logik" muss man mir mal erklären. Nur weil etwas günstiger ist, ist es schlechter und der Markt reagiert dann mit Ablehnung? Ernsthaft.
Momentan widerspricht diese Aussage sämtlichen Kundenverhalten, egal in welchem Bereich. Wieso sollte sich dieses Verhalten jetzt ändern?
BlacKi
2020-07-25, 19:33:11
Also diese "Logik" muss man mir mal erklären. Nur weil etwas günstiger ist, ist es schlechter und der Markt reagiert dann mit Ablehnung? Ernsthaft.
Momentan widerspricht diese Aussage sämtlichen Kundenverhalten, egal in welchem Bereich. Wieso sollte sich dieses Verhalten jetzt ändern?
das stammt aus der r9 290/390 ära. dort hat man ram verdoppelung betrieben, um die 390 besser aussehen zu lassen als die 980 auf dem papier.
Ex3cut3r
2020-07-25, 19:33:11
Ladenhüter, meinst du das ernst? Als ob die 50 Leute die ständig wegen VRAM rumweinen da ins Gewicht fallen würden :biggrin:
50 Leute? Die 70er von Nvidia hat sich immer gut verkauft. Mit den 8GB Only diesmal oder schon wieder, wird Sie definitiv nicht so oft über die Ladentheke wandern, siehe RTX 2060 mit 6GB Only. Mit der Super Variante musste Nvidia auf 8GB aufstocken, erst dann wurde Sie auch vernünftig abgesetzt. Komm mal wieder auf der Erde an. Der Witz für mich ist, Nvidia preist RT als Holy Grail an. Will RT immer mehr anwenden, preist ihre GPUs aber schon wieder mit Krüppel VRAM an, lächerlich IMO und ein Widerspruch in sich.
DLSS lässt den VRAM Bedarf schrumpfen, ja. Ist aber für 21:9 einfach nur schlecht, was die Bildqualität angeht. Ich wurde mir mal wünschen, dass wenn die Tester DLSS testen, auch mal unter 4K testen. Denn 4K (1440p gerenderte Auflösung) scheint mir momentan als einzige ordentliche Lösung, aller darunter ist Käse bzw. Matsch.
Da ich aber sowieso keinen 4K Monitor in den nächsten Jahren kaufen werde, sondern eher 3440x1440 oder 3840x1600 (21:9) mit 144hz+ geht mir DLSS und 4K am Arsch vorbei. Es sei denn, DLSS wird erheblich besser unter 4K. So ich habe fertig. Schönen Abend wünsche ich. :up:
https://abload.de/img/unbenanntqxko5.png
WedgeAntilles
2020-07-25, 22:28:26
50 Leute? Die 70er von Nvidia hat sich immer gut verkauft. Mit den 8GB Only diesmal oder schon wieder, wird Sie definitiv nicht so oft über die Ladentheke wandern, siehe RTX 2060 mit 6GB Only. Mit der Super Variante musste Nvidia auf 8GB aufstocken, erst dann wurde Sie auch vernünftig abgesetzt. Komm mal wieder auf der Erde an. Der Witz für mich ist, Nvidia preist RT als Holy Grail an. Will RT immer mehr anwenden, preist ihre GPUs aber schon wieder mit Krüppel VRAM an, lächerlich IMO und ein Widerspruch in sich.
Tja, und ich sage BigNavi wird für AMD ein großer Fail.
Weil die neuen Karten über RT und DLSS verkauft werden wegen Marketinghype. (Ob berechtigt oder nicht spielt keine Rolle. Es genügt wenn die Mehrheit glaubt, dass sie gutes RT unbedingt braucht.)
Und da ist Nvidia weit stärker als AMD.
Die 8GB Ram wird die Käufer nicht schrecken.
Und damit haben sie auch recht - wenn 90% der User 8GB und weniger VRAM haben, werden 8GB auch gut ausreichen werden.
Aber natürlich kann ich auch falsch liegen.
Wenn du dir sicher bist, dass du richtig liegst lade ich dich hier ein:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=601446
Bisher gibt es ja leider noch nicht viele, die es wagen sich "für die Ewigkeit" leicht auffindbar auf eine Aussage festzulegen. :)
dargo
2020-07-25, 22:32:52
Tja, und ich sage BigNavi wird für AMD ein großer Fail.
Weil die neuen Karten über RT und DLSS verkauft werden wegen Marketinghype. (Ob berechtigt oder nicht spielt keine Rolle. Es genügt wenn die Mehrheit glaubt, dass sie gutes RT unbedingt braucht.)
Und da ist Nvidia weit stärker als AMD.
Du kennst schon die RT-Performance von Big Navi? Erleuchte uns doch mal. :uponder:
BlacKi
2020-07-25, 22:54:27
wenn 90% der User 8GB und weniger VRAM haben, werden 8GB auch gut ausreichen werden.
endlich einer ders begriffen hat. auch wenn ich dieses vorgehen nicht für gut halte.
Linmoum
2020-07-25, 23:12:40
Ist halt nur in UHD mit ggf. noch irgendwelchen High-Res-Packs und insb. Raytracing völliger Quatsch.
Platos
2020-07-25, 23:24:47
endlich einer ders begriffen hat. auch wenn ich dieses vorgehen nicht für gut halte.
Wer sich ne xx80(ti) kauft, kauft wohl kaum, um "ausreichende" Leistung zu haben...
[MK2]Mythos
2020-07-25, 23:29:15
endlich einer ders begriffen hat. auch wenn ich dieses vorgehen nicht für gut halte.
Genau, weil dein Punkt auch so kompliziert und schwer nachvollziehbar ist. :freak:
Und VRAM Verbrauch ist immer noch zum großen Teil Sache der Auflösung, für 4K werden 8GB jedenfalls nicht mehr reichen.
Und deswegen ist dein Cliffhanger auch völlig sinnlos.
just4FunTA
2020-07-25, 23:31:02
Ach 4k wer kauft schon für 1000€ ne graka um in 4k zu spielen 1080p@240fps ist das ziel
Linmoum
2020-07-25, 23:36:31
Ach 4k wer kauft schon für 1000€ ne graka um in 4k zu spielen 1080p@240fps ist das zielMindestens. Gibt doch sogar schon zwei von Asus mit 280Hz und 360Hz sind auch schon angekündigt.
Krieg ich bei den diversen AAA-Singleplayerspielen zwar Augenkrebs, aber immerhin kann ich LoL und CS:GO dann toll spielen. Also die Spiele, für die ich mir ja die teuren GPUs kaufe. ;D
just4FunTA
2020-07-25, 23:46:41
Haste nicht gehört mit upscaling ist das astrein die 8gig sind garnicht nötig 4gb vram ist für ne rtx3080ti der sweetspot und das zu nem Spitzenpreis von 1.500€
crux2005
2020-07-25, 23:48:52
Haste nicht gehört mit upscaling ist das astrein die 8gig sind garnicht nötig 4gb vram ist für ne rtx3080ti der sweetspot und das zu nem Spitzenpreis von 1.500€
Ich frage mich wieso eine VRAM Diskussion immer entgleist.
NV wird doch mit 3080 und Ti/3090 mehr als 8 GB bringen. Reichen die 10-12 GB den Herren auch nicht? Dazu das NV HBCC.
Wenn es nicht reicht gibt es immer noch die Big Navi Alternative mit 16 GB(?) VRAM.
Linmoum
2020-07-25, 23:53:22
Ich frage mich eher, warum ständig irgendjemand damit anfangen muss, dass man mehr nicht braucht (bzw. mehr als aktuell nicht nötig ist) weil isso.
BlacKi
2020-07-26, 00:02:48
bitte setzen, 6.
ihr geilt euch am 8gb reicht nicht auf. das war garnicht mein punkt. es geht darum das die masse vorgibt was man an vram braucht. es geht mir einfach mal 0 um 4/8/12/16gb vram.
high res. packs? die waren schon immer ein problem wenn man massenhardware gekauft hat. jetzt komm mir nicht damit.
[MK2]Mythos
2020-07-26, 00:22:25
bitte setzen, 6.
ihr geilt euch am 8gb reicht nicht auf. das war garnicht mein punkt. es geht darum das die masse vorgibt was man an vram braucht. es geht mir einfach mal 0 um 4/8/12/16gb vram.
high res. packs? die waren schon immer ein problem wenn man massenhardware gekauft hat. jetzt komm mir nicht damit.
Welche Masse denn? Jeder braucht seinen Einstellungen ensprechend viel Ram. Das gibt niemand irgendwem vor. Wenn ich nicht den neusten Shit @Ultra High @4K spielen will, dann kauf ich mir auch keine Grafikkarte für um die 1000 Euro. Und dann reichen mir 8Gb auch. Dass du annimmst dass die Spieleentwickler irgend ein VRAM-Verbrauchs-Cap (@egal wie die Auflösung und Detaileinstellung ist) für ihre ihre Games bauen weil der Großteil noch mit 8Gb Karten rumgurkt, ist mal wieder so ein typisches Blacki-Strohmann Ding.
Sunrise
2020-07-26, 00:34:26
Wenn ich am PC doch die Möglichkeit habe, sehr viele Einstellungen anzupassen (und gerade bei NV es unglaublich viele Tuning- und Treibermöglichkeiten gibt), dann frage ich mich manchmal, warum wir immernoch über 8GB reden.
Ich fühle mich bei solchen Diskussionen irgendwie in einer Parallelwelt unterwegs. Seit wann bitte wird bei High-End-/Enthusiast-HW zurückgeschaut?
Wenn AMD eine Karte mit 16GB bringt und diese noch günstiger als nVidia positioniert, dann heisst dies nichts anderes als dass die GPU nicht viel taugt und man das Zeugs daher über den vRAM und den Preis an die Leute zu bringen versucht.
Zwischen "nicht viel taugt" und evtl. minimal langsamer (DLSS bleibt noch die Frage, wie AMD hier aufholen kann) ist nur leider ein gigantischer Unterschied. Wenn man dann statt 11GB satte 16GB bekommt, ist das eben auch ein Argument. Muss jeder selbst wissen, ist ja das eigene Geld und jeder hat ein anderen Anforderungsprofil.
das stammt aus der r9 290/390 ära. dort hat man ram verdoppelung betrieben, um die 390 besser aussehen zu lassen als die 980 auf dem papier.
Guter Punkt. Eine R9 390 ist mittlerweile fast auf Augenhöhe zur GTX 980 angekommen, obwohl sie vor fünf Jahren nur die GTX 970 zersägen sollte. Letzteres hat damals nicht immer geklappt, tut's seit 1-2 Jahren aber immer. Keine Macht den Speicherkrüppeln! ;)
Mythos;12374587']Genau, weil dein Punkt auch so kompliziert und schwer nachvollziehbar ist. :freak:
Und VRAM Verbrauch ist immer noch zum großen Teil Sache der Auflösung, für 4K werden 8GB jedenfalls nicht mehr reichen.
Und deswegen ist dein Cliffhanger auch völlig sinnlos.
Tatsächlich ist die Auflösung, also letztendlich die Größe des Framebuffers, heutzutage nicht mehr maßgeblich. Da gibt's so viele andere Daten, dass paar Hundert MiByte mehr oder weniger nur in Grenzfällen spielentscheidend sind. Ja, zwischen FHD und UHD ist die Lücke groß, aber zwischen WQHD und UHD dann nicht mehr so. Auflösung tut vor allem der GPU in Sachen Rechenzeit weh, weil das ein quadratisch steigendes Problem ist. Speichermäßig sind es aber die ganzen Buffer für gescheite Beleuchtung, erst recht beim Raytracing, die VRAM-Fässchen platzen lassen - neben dem Klassiker in Gestalt von Texturen natürlich. Minecraft RTX und alle Turings lagern aus - das ist unfreiwillig komisch. Vor allem, weil man da alles optimiert hat, was nicht bei drei auf den Würfelbäumen war. Das könnte einer der Gurus hier gewiss etwas ausführen, wenn man lieb fragt. :)
Lange Rede, kurzer Sinn: Wenn Nvidia es mit RTRT ernst meint, dann braucht's mehr Speicher als 2015/2016. Dass wir darüber überhaupt noch diskutieren! Diese Stagnation ist haarsträubend und wäre vor 10-15 Jahren noch völlig undenkbar gewesen.
MfG
Raff
Leonidas
2020-07-26, 04:51:29
Keine Macht den Speicherkrüppeln! ;)
Gut auf den Punkt gebracht. Memes hierzu?
Dazu das NV HBCC.
Kenne nur das AMD-HBCC Feature :confused:
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen
"AMDs HBCC-Feature kann (in der richtigen Situation) bis zu 70% Mehrperformance bringen"
Oder schreibt man das jetzt auch schon NV gut? (so wie es manche bei VRR machen)
M.f.G. JVC
In der aktuellen PCGH gibts nen Artikel dazu. Kann in Grenzbereichen sinnvoll sein, ersetzt aber keinen echte Speicher. Auf Deutsch: selbst wenn NV sowas hat, das ist Mist. Man braucht VRAM, Ende. Das ist eigentlich auch vollkommen klar wieso, wenn man 3 Sekunden darüber nachdenkt. Da fehlt einfach eine sinnvolle Möglichkeit der Adressierung. Wenn es da ein Protokoll dazu gäbe, beispielsweise über IF, säh das besser aus.
Ich bezweifel i.Ü., dass der Großteil der Consumer, der Geforce kaufte, DLSS überhaupt kennt, geschweige denn bewusst einsetzt. Das ist mit großer Sicherheit genau kein Kaufargument. VRAM war immer ein gewichtiges Verkaufsargument in der Geschichte, warum soll das heute anders sein?
Thunderburne
2020-07-26, 10:18:20
Bin gespannt auf die neuen Karten bisher bin ich mit meiner 2080Ti sehr zufrieden .
Mit den 11GB bin ich bisher ausgekommen in 4K den noch würde ich jetzt auf mehr setzen!
Ich hoffe AMD gelingt ein Comeback mit Big Navi.
WedgeAntilles
2020-07-26, 10:47:15
Du kennst schon die RT-Performance von Big Navi? Erleuchte uns doch mal. :uponder:
Naja, ich behaupte einfach mal, dass AMD nicht Gott persönlich eingestellt hat.
Und ich halte es deswegen eben schlicht für ausgeschlossen, dass AMD die Leistung mal kurz verdoppelt und nebenbei auch noch den RT Vorsprung von Nvidia locker flockig aufholt.
Nvidia konzentriert sich bei Ampere stark auf RT und baut dabei auf Turing auf.
AMD hatte keine Karte die Turing bei der Leistung das Wasser reichen konnte.
Und das, obwohl AMD nicht mal mit Raytracing Leistung "verschwendet" hat.
Klar kann AMD das theoretisch schaffen.
Es kann rein theoretisch auch sein, dass die GraKas von AMD mit 32GB Ram und zum Preis von 399 auf den Markt kommen. Das Gegenteil kann dir Stand jetzt keiner beweisen.
Aber "common sense" sagt halt, dass es eher sehr unwahrscheinlich ist, dass AMD mit BigNavi absolut alles auf einmal schafft.
Wie soll das funktionieren?
dargo
2020-07-26, 10:57:15
Es ist echt amüsant deine Posts zu lesen. ;D Man weiß weder Details zu Big Navi noch Ampere was die Performance angeht. Aber bei dir ist schon alles in Stein gemeißelt. :uup:
Im übrigen braucht man keinen Gott um konkurrenzfähige Produkte zu liefern sondern nur Geld. Das entsprechende Personal findet sich schon mit genug Budget.
AMD hatte keine Karte die Turing bei der Leistung das Wasser reichen konnte.
Genau... deswegen ist die Perf/W bei Navi10 identisch zu Turing. :facepalm: Manche Leute sind hier echt nur noch peinlich. Ich hoffe du fällst nicht gleich vom Stuhl wenn ich dir sage, dass es einen großen Markt unterhalb einer 2080(S)/TI gibt.
Es kann rein theoretisch auch sein, dass die GraKas von AMD mit 32GB Ram und zum Preis von 399 auf den Markt kommen. Das Gegenteil kann dir Stand jetzt keiner beweisen.
Alter... :facepalm:
rentex
2020-07-26, 11:45:48
32GB für 399€ ? Klar, warum auch nicht...einfach nur unrealistisch.
Das hat nicht viel mit "common sense" zu tun, sondern mit der Einbeziehung von bisherigen (spärlichen) Daten, Marktlage, Vorgehensweisen und wirtschaftlichen Situation der zwei Grafikkartenanbieter und aktuell angebotenen Produkte.
Hauwech
2020-07-26, 11:45:51
Es ist echt amüsant deine Posts zu lesen. ;D Man weiß weder Details zu Big Navi noch Ampere was die Performance angeht. Aber bei dir ist schon alles in Stein gemeißelt. :uup:
Genau... deswegen ist die Perf/W bei Navi10 identisch zu Turing. :facepalm: Manche Leute sind hier echt nur noch peinlich. Ich hoffe du fällst nicht gleich vom Stuhl wenn ich dir sage, dass es einen großen Markt unterhalb einer 2080(S)/TI gibt.
Alter... :facepalm:
[ ] Ich habe den Sinn eines Spekulationsforums verstanden
[ ] Ich respektiere den anderen und muss ihn nicht persönlich angreifen
[ ] Seine Meinung ist genauso gut wie jede andere inklusive meiner eigenen
[ ] Ich kenne den Unterschied zwischen absoluter Leistung und Perf/W
Alter... :facepalm:
unl34shed
2020-07-26, 12:07:43
Man darf also nicht mal mehr nachfragen, wie man auf seine Spekulation kommt?
Von WedgeAntilles kommt die letzten Wochen immer die gleiche Leier, "Ich habe eigentlich keine Ahnung, aber AMD kann nichts, deren RT wird schlechter als Turing, Nvidia's RT wird mit Ampere um ein vielfaches Besser, AMD's Treiber sind schlecht, DLSS ist besser als Native Auflösung" (Native = schlechtes TAA).
Das wird als Fakt hingestellt und hat mit Speku nichts zu tun. Auf Rückfragen kommt idr. nichts und es wird im nächsten Thread die gleiche Leier durchgezogen (jede news zu GPUs ist auch voll davon). Ich sehe bei dargo übrigens keine persönlichen Angriff... :confused:
E: hab AMD's RT wird schlecht vergessen
rentex
2020-07-26, 14:04:32
@Hauwech Spekulieren bedeuted u.a. mit vorhandenen Wissen, eine "erwartbare" Voraussage zu treffen und NICHT, einfach ins Blaue zu raten.
Und wenn jemand permanent und absolut, nicht nachvollziehbare Thesen aufstellt, könnten sich einige "Spekulanten" amüsiert bis genervt zeigen.
Timbaloo
2020-07-26, 14:16:09
Und wenn jemand permanent und absolut, nicht nachvollziehbare Thesen aufstellt, könnten sich einige "Spekulanten" amüsiert bis genervt zeigen.
Du meinst solche Thesen?
Und nochmal: Braucht DLSS eine stehende Onlineverbindung zu NV?
unl34shed
2020-07-26, 14:28:07
Dir ist aber schon klar, was eine frage ist, oder? Zu erkennen an dem "?" :wink:
rentex
2020-07-26, 14:36:21
@Timbaloo Hardcore Member bedeuted nicht gleich "brauchbarer" Member ;-)
pixeljetstream
2020-07-26, 14:42:26
könnten sich einige "Spekulanten" amüsiert bis genervt zeigen.
Das gilt praktisch immer, weil es immer einen Personenkreis gibt die einfach mehr wissen und Erfahrung in dem Bereich haben. Es liegt immer an uns allen zu versuchen das Niveau nach oben zu ziehen. Natürlich kann das nicht immer klappen, manche Personen sind einfach beratungsresistent. Auch eine nachvollziehbare These kann schon auf nicht zutreffenden Grundlagen bestehen.
Timbaloo
2020-07-26, 14:43:06
Dir ist aber schon klar, was eine frage ist, oder? Zu erkennen an dem "?" :wink:
Oh, Okay, ich kann also totalen Bullshit verzapfen der offenbart, dass ich 0 Ahnung von der Materie habe, aber so lange ich es als Frage formuliere ist es O.K.? Gut zu wissen.
State of 3DC 2020...
unl34shed
2020-07-26, 14:46:57
Also darf man deiner Meinung nach nicht einmal mehr fragen stellen, wenn man etwas nicht weiß? Wow....
Leonidas
2020-07-26, 14:49:10
Habt Ihr euch wieder lieb hier an einem heiligen Sonntag .....
rentex
2020-07-26, 14:50:59
@Timbaloo Wenn du nichts zu schreiben hast und nichts beizutragen hast, lass einfach die Tastaur in Ruhe.
Ich habe eine einfache Frage zu einem Thema gestellt, das ich bis vor kurzem keinerlei Beachtung geschenkt habe, da ich mit ner 2080 Ti, Leistung en Mass hatte. Da es aber langsam, sehr, sehr ernst mit DLSS und RTX wird, habe ich mich der Thematik wieder hinzugewendet und sogar meine vorherige Meinung geändert.
Was DU machst ist einfach klugscheissen und maximal überheblich sein.
State of 3DC 2020...? Echt jetzt? Mit solchen Mitgliedern kein Wunder!
Timbaloo
2020-07-26, 15:03:08
Also darf man deiner Meinung nach nicht einmal mehr fragen stellen, wenn man etwas nicht weiß? Wow....
Es geht nicht um das "nicht wissen", sondern darum dass solchen Fragen derartig fundamentale Verständnisprobleme offenbaren, dass man in bestimmten Diskussionen (hier Spekulation über zukünftige Hardware/Architektur) einfach komplett fehl am Platze ist.
Und wenn man sich dann auch noch anmaßt über die Qualität der Beiträge anderer zu urteilen, dann wird es halt arg lächerlich.
rentex
2020-07-26, 15:11:09
@Timbaloo Was und wie DU es schreibst ist lächerlich und zeugt von einem zweifelhaften Selbstverständnis.
WedgeAntilles
2020-07-26, 15:12:48
Man darf also nicht mal mehr nachfragen, wie man auf seine Spekulation kommt?
Von WedgeAntilles kommt die letzten Wochen immer die gleiche Leier, "Ich habe eigentlich keine Ahnung, aber AMD kann nichts, deren RT wird schlechter als Turing, Nvidia's RT wird mit Ampere um ein vielfaches Besser, AMD's Treiber sind schlecht, DLSS ist besser als Native Auflösung" (Native = schlechtes TAA).
Das wird als Fakt hingestellt und hat mit Speku nichts zu tun. Auf Rückfragen kommt idr. nichts und es wird im nächsten Thread die gleiche Leier durchgezogen (jede news zu GPUs ist auch voll davon). Ich sehe bei dargo übrigens keine persönlichen Angriff... :confused:
E: hab AMD's RT wird schlecht vergessen
Lesen scheint nicht zu deinen Stärken zu gehören.
Hält dich natürlich nicht davon ab zu posten.
Warum ich glaube, dass Nvidias RT besser sein wird: Habe ich mehrfach geschrieben.
Bisher hat AMD kein RT. Nvidia hat mit Turing bereits eine Generation Erfahrung.
Außerdem soll nach aktuellen Gerüchten BigNavi in der Leistung deutlich stärker steigen als Ampere. Das scheint ja ziemlich "gesichert" zu sein. Bei Nvidia geht man von ca. 40% aus, bei AMD von ca. 100%. Der Nvidia-Zuwach gilt ja als halbwegs gesichert. Klar, die 100% von AMD sind es noch nicht. Aber auch wenn wir da einen gehörigen Teil wegnehmen, ist die Leistungssteigerung bei AMD immer noch merklich über der von Nvidia.
AMD legt demnach wohl eher den Fokus darauf, in der Leistung Nvidia einzuholen, evt. sogar zu überholen.
Und daher gehe ich davon aus, dass man bei RT nicht auch noch Nvidia überholt.
Weil man halt schlicht nicht alles auf einmal schaffen kann.
Oder anders gefragt, wie abgrundtief unfähig muss Nvidia sein, wenn sie sowohl bei reiner Perfromance als auch bei RT ihren gesamten Vorsprung innerhalb einer einzigen Generation verspielen?
Sorry, das ist doch völlig unplausibel.
Theoretisch möglich, ja. Aber praktisch?
Ist wahrscheinlich zu viel Schlussfolgerung und überfordert dich daher, das tut mir sehr leid.
Wie du auf die Idee kommst, ich würde sagen: AMD kann nix begreife ich auch nicht.
Aber mit Textverständnis hast du es ja nicht, das habe ich kapiert.
DLSS sehe ich persönlich als sehr interessantes Feature, das zwar aktuell noch nicht weltbewegend ist, aber in 1-2 Jahren sehr viel Potential dafür hat.
Ja, ist unbewiesen, klar.
Aber ich bin nicht der Einzige der Potential bei DLSS sieht, Nvidia steckt in das Feature ja viel Geld und Aufwand.
Ist das ein Beweis, dass es ein gelunges Feature wird? Nein, natürlich nicht.
Du siehst das anders, du hälst nix von DLSS.
Ok.
Tut mir leid, dass ich ne andere Ansicht zu DLSS habe.
Kapitalverbrechen wahrscheinlich.
Und dass AMD historisch gesehen schwächere Treiber hat - ja, das sage ich.
Die Wahrscheinlichkeit, mit einer AMD Karte Treiberprobleme zu haben ist höher als bei einer Nvidia Karte.
Ich entschuldige mich ein drittes Mal bei dir, hier so viel Text geschrieben zu haben.
Vielleicht findest du jemanden, der es dir vorliest und in einfachen Worten die auch du begreifst erläutert.
Dass die 32GB zu 399 das stilistische Mittel der Übertreibung sind, um einen Punkt zu illustrieren, hätte eigentlich auffallen können. Nämlich den Punkt, dass man nicht alles beweisen können muss. Nicht jede Theorie, die nicht beweisbar ist, ist plausibel bzw. unplausibel.
Ja, ich kann nicht beweisen, dass AMD es nicht schaffen wird, die Leistung zu verdoppeln und RT aus dem Nichts auf das gleiche Niveau von Nvidia zu bringen. Also Nvidia in einer einzigen Generation den gesamten existierenden Vorsprung verspielt.
Eben wie ich auch nicht beweisen kann, dass 32GB zu 399 Euro kommen.
Beides ist unwahrscheinlich (die 32GB zu 399 natürlich noch viel unwahrscheinlicher mit gegen 0 gehender Wahrscheinlichkeit. Eben das Stilmittel einer völlig absurden Übertreibung.)
Gut, wahrscheinlich erwarte ich einfach zu viel, aber was solls.
nordic_pegasus
2020-07-26, 16:19:46
Nicht jede Theorie, die nicht beweisbar ist, ist plausibel bzw. unplausibel.
Per Definition muss eine Theorie beweisbar oder widerlegbar sein. Gleiches gilt für Hypothesen. Du meinst wahrscheinlich eine Aussage / Vermutung... dass vermute ich zumindest ;)
PrinceGSC
2020-07-26, 20:07:17
Wie hier jeden, jeden verbessern möchte. Leute es ist ein Spekulationsforum und spekuliert darf doch werden und wenn jemand eine Idee hat zu einem Thema geht doch einfach mal bisl respektvoller miteinander um.
Es kann doch nicht sein das jeder dem nächsten das Verständnis abspricht und die Person als dumm dahin stellt.
Erwartet Respekt, seid aber selbst auch respektvoll.
Ich hoffe allmählich auch auf klare Infos zu den 3000er RTX Karten, würd rein fürs streamen auch evtl von 2080ti auf 3080/3090 umsteigen.
Ist es sinnvoll? Wahrscheinlich nicht aber Bock hab ich drauf.
Nur wegen Streaming? Was erwartetes du dann?
rentex
2020-07-26, 20:50:32
Er hat einfach Bock drauf!
Timbaloo
2020-07-26, 20:52:56
Der HW-Encoder wurde ja zu Turing bereits deutlich verbessert, ich würde nicht erwarten, dass da mit Ampere groß was passiert (wenngleich auch nett noch näher an x264@slow ranzukommen).
Ansonsten sind für Streaming so Sachen wie RTX Voice und RTX Broadcast Engine (warum heissen die eigentlich RTX?) sicherlich auch nice, und dürften sicher von besserer TC-Performance profitieren. Aber ob das ein Upgrade rechtfertigt, ich denke nicht.
PrinceGSC
2020-07-26, 21:21:05
Er hat einfach Bock drauf!
Genau das ist es, Leistungstechnisch wird’s wahrscheinlich nicht nötig sein, wobei manches Spiel auch in 1440p Max settings die 2080ti an die Leistungsgrenze führt. Naja und ich will fürs Streamen nicht an den ingamesettings schrauben müssen, denn wenn man streamt soll man die Karte nicht höher als 90% auslasten(so gibt es NVidia an) und wenn ich darüber hinaus komme kann ich selbst nachverfolgen das der Stream laggs bekommt(1080p60).
Ich bin was das streamen angeht komplett am Anfang daher interessiert es wahrscheinlich eh keinen aber ich hab den Anspruch das es gut läuft und gut aussieht.
Es freut mich euch mal ein wenig abgelenkt zu haben 👍😉
Zossel
2020-07-27, 07:14:07
Per Definition muss eine Theorie beweisbar oder widerlegbar sein. Gleiches gilt für Hypothesen. Du meinst wahrscheinlich eine Aussage / Vermutung... dass vermute ich zumindest ;)
Ganz so einfach ist das nicht:
https://de.wikipedia.org/wiki/Axiom
http://scienceblogs.de/hier-wohnen-drachen/2012/01/04/physik-idealisierungen-und-axiome/
BlacKi
2020-07-30, 18:59:19
https://media.tenor.com/images/dec96f3eeebe84cf7f5e234ee9fa48c5/tenor.gif
https://wccftech.com/nvidia-rtx-3090-will-allegedly-offer-a-massive-50-performance-increase/
Linmoum
2020-07-30, 19:33:00
Ist doch nichts Neues, die 40-50% auf eine 2080Ti geistern doch immer wieder umher.
Radeonfreak
2020-07-30, 19:40:17
Ich glaub nicht an 50%. Der Prozess muss wohl ne Weile halten, es Bedarf nächstes Jahr vielleicht eines SUPER Refreshes...wär doch schön blöd gleich so in die Vollen zu gehen und sich die Luft zum Atmen zu nehmen.
... es Bedarf nächstes Jahr vielleicht eines SUPER Refreshes...
Sollten sich die hohen TDPs bewahrheiten, dann muss NV vielleicht in 7nm refreshen (GA103?). Dann könnten sie auch die nächste Generation mit den gleichen design rules in 6nm bringen.
rentex
2020-07-30, 20:22:52
Würde ebenfalls bedeuten, das es keine 3080Ti gibt.
Tarkin
2020-07-30, 21:19:28
WCCFTECHs Quelle nur 2h später
https://twitter.com/kopite7kimi/status/1288843379183214592
"The news about performance is all rumor. For reference only! Because there is no accurate core frequency information at all. Thanks!"
Edgecrusher86
2020-07-30, 22:33:38
Selbst wenn es stimmt - für Benchmarks wie 3DM wird doch eh immer besonders gut optimiert. Das kann locker 10-20% höher ausfallen, als die Straßenperformance. So war es etwa bei der GTX 580 auf die GTX 480 oder der GTX 680 auf die GTX 580. ;)
Nun ja, evtl. auch mit OC und gut optimiert - oder BS. :D
So langsam wird es Zeit für ordentliche Leaks, hehe.
BlacKi
2020-07-30, 22:38:07
Selbst wenn es stimmt - für Benchmarks wie 3DM wird doch eh immer besonders gut optimiert. Das kann locker 10-20% höher ausfallen, als die Straßenperformance. So war es etwa bei der GTX 580 auf die GTX 480 oder der GTX 680 auf die GTX 580. ;)
das trifft aber auf beide karten zu. 2080ti wie "3080ti".
WCCFTECHs Quelle nur 2h später
https://twitter.com/kopite7kimi/status/1288843379183214592
"The news about performance is all rumor. For reference only! Because there is no accurate core frequency information at all. Thanks!"
weil das PT angeblich noch nicht feststeht.
d.h. mit dem passenden OC bios sind es definitiv 50%. bei 250w dann vl so 30-40%?
Linmoum
2020-07-30, 22:55:18
d.h. mit dem passenden OC bios sind es definitiv 50%.Ist das so?
Nazar
2020-07-30, 23:15:47
das trifft aber auf beide karten zu. 2080ti wie "3080ti".
weil das PT angeblich noch nicht feststeht.
d.h. mit dem passenden OC bios sind es definitiv 50%. bei 250w dann vl so 30-40%?
Ich hoffe nur, dass das auch Nvidia so definitiv weiß. ;)
Die bisherigen Leaks gingen alle von 30 bis maximal (OC) 40% aus.
Wenn Nvidia die 50% Mehrperformance inkl. OC sofort bei einer Umstellung auf einem neuen Prozess mit einem neuen Design schaffen, dann haben sie meine Hochachtung und wenn sie dann auch noch mit 16+ GB in dieser Leistungsklasse kommen, umso besser. ;)
Allerdings habe ich da genauso meine Bedenken wie bei AMD mit Big Navi.
Dass DLSS 3.0 standard- und zwangsmäßig aktiviert werden soll, ohne eine Option zum abschalten, verleitet mich zu der Spekulation, dass die Rohperformance eventuell nur 15% über der einer 2080ti liegen wird und das weitere Leistungsplus um auf eventuell weitere +20-30% Leistungszuwachs zu kommen über DLSS kommen soll. Die wahre Stärke wird wohl RT sein.
Big Navi schafft es dann eventuell in der Rohperformance genauso schnell zu sein wie das Nvidia Flagschiff, bei Spielen wo DLSS nicht greift und RT nicht vorhanden ist.
Aber +50% Rohperformance wären schon was Leckeres. ;)
In gut einem Monat wissen wir es dann hoffentlich ganz genau.
BlacKi
2020-07-30, 23:31:23
In gut einem Monat wissen wir es dann hoffentlich ganz genau.
agree
Armaq
2020-07-30, 23:58:02
Wie ist denn der Vergleich V100 zu 2080Ti und wie ist es dann mit dem A100 ...
Rampage 2
2020-07-31, 00:05:09
agree
Kann man schon in den nächsten Wochen/gegen Ende August mit einer Ankündigung oder Vorstellung von Ampere rechnen?
R2
Unrockstar
2020-07-31, 00:14:14
Du meinst solche Thesen?
Lesen und verstehen will gelernt sein.
Was Fragezeichen sind, kennst du aber, oder?
Ich habe bei WTFtech was von 50% auf 2080Ti für den Vollausbau gelesen. Finde nur ich das als wenig an? Es wird ja vom salvage Zu gemessen, aber da sind von der Titan als Vollausbau auch nur 35%. Das die Karte teuer wird, ohne Zweifel, aber nicht dass was ich von einer 4K RT Karte erwarte.
@Rampage:
Ich glaube nicht. Ich denke auch nicht, dass AMD im September Mal eben RDNA2 released, sondern man vllt einen Teil zeigt und den Mittelklasse Markt zur Back to school season startet.
Bei Nvidia könnte es spannender werden. Aber ich tippe auch hier Ende September/ Oktober Lebenszeichen zu hören
Das die Karte teuer wird, ohne Zweifel, aber nicht dass was ich von einer 4K RT Karte erwarte.
Die letzte Konsolengeneration hat das Zeitalter des temporal Upsamplings eingeläutet und die neue Version bringt uns breit eingesetztes AI Upsampling. Native 4k ist damit hoffentlich mittelfristig tot.
Rampage 2
2020-07-31, 00:58:42
@Rampage:
Ich glaube nicht. Ich denke auch nicht, dass AMD im September Mal eben RDNA2 released, sondern man vllt einen Teil zeigt und den Mittelklasse Markt zur Back to school season startet.
Bei Nvidia könnte es spannender werden. Aber ich tippe auch hier Ende September/ Oktober Lebenszeichen zu hören
Das Gerücht, dass N2X/RDNA2 etwas später (+ 1 Monat) als Ampere kommt, hängt schon etwas länger in der Luft - ebenso die Gerüchte, dass Nvidia diesmal etwas früher dran sein wird und angeblich die Vorstellung & den Launch von Ampere sogar vorverlegt habe. Aktuelle Gerüchte und die Gerüchte der letzten Wochen besagen Vorstellung "irgendwann im August", Launch "irgendwann im September" - darauf hatte ich gesetzt. Ich will nur noch wissen, wann genau euren Einschätzungen zufolge dieses "irgendwann im August" ist - Mitte August oder Ende August?
Bei N2X/RDNA2 soll das Ganze Gerüchten zufolge um ziemlich genau 1 Monat verschoben sein - Vorstellung September oder Oktober, Launch Oktober oder November...
R2
BlacKi
2020-07-31, 01:22:19
Kann man schon in den nächsten Wochen/gegen Ende August mit einer Ankündigung oder Vorstellung von Ampere rechnen?
R2
vorstellung auf der online gamescom, erste offizielle benches die vermutlich, eigentlich wie immer noch eine restungenauigkeit haben, weil marketing folien. lieferbarkeit im september. aber das sind nur annahmen.
gamescom startet in 27 tagen, wie immer zuende der gamescom wirds dann offizielles von NV geben.
pixeljetstream
2020-07-31, 01:29:51
Ende Juli :ugly:
BlacKi
2020-07-31, 01:33:12
Ende Juli :ugly:
was bekommen wir, wenn die letzten 22,5h ablaufen und nichts kommt?:freak:
Rampage 2
2020-07-31, 01:35:55
Gamescom startet in 27 tagen, wie immer zuende der gamescom wirds dann offizielles von NV geben.
Aber diesmal nur online wie du sagtest? Keine physische Veranstaltung, nicht wahr?
R2
pixeljetstream
2020-07-31, 01:37:48
was bekommen wir, wenn die letzten 22,5h ablaufen und nichts kommt?:freak:
Ein entkräftetes Gerücht, was schon viel wert zu sein scheint die Tage.
rentex
2020-07-31, 05:54:20
Was soll "Ende" Juli kommen?
Timbaloo
2020-07-31, 07:09:15
Ein entkräftetes Gerücht, was schon viel wert zu sein scheint die Tage.
;D
AffenJack
2020-07-31, 07:32:18
Samsungs Quartalsbericht bestätigt eigentlich 8nm und gestartete Massenproduktion in Q2 für Ampere.
https://news.samsung.com/global/samsung-electronics-announces-second-quarter-2020-results
For the Foundry Business, the Company invested mostly in the advanced 5- and 8nm processes to increase its production capacity....
The Foundry Business achieved record quarterly and half-yearly revenue as customers’ inventory build-ups increased.
Kann eigentlich nur nen großer Ramp durch Nvidia sein, der Samsungs Foundry zum Rekordquartal geführt hat. Qualcomm und Samsungs eigene Chipsparte fertigen zwar auch bei Samsung, aber keiner der beiden braucht plötzlich soviel 8nm oder generell Kapazitäten, dass man Rekordquartale haben würde.
Deutet also auch stark auf September als Launchtermin (Hardlaunch) für Ampere hin.
Slipknot79
2020-07-31, 09:10:35
was bekommen wir, wenn die letzten 22,5h ablaufen und nichts kommt?:freak:
Den August.
Es wird genau gar nix heute passieren. :wink:
fondness
2020-07-31, 10:32:07
Samsungs Quartalsbericht bestätigt eigentlich 8nm und gestartete Massenproduktion in Q2 für Ampere.
https://news.samsung.com/global/samsung-electronics-announces-second-quarter-2020-results
Kann eigentlich nur nen großer Ramp durch Nvidia sein, der Samsungs Foundry zum Rekordquartal geführt hat. Qualcomm und Samsungs eigene Chipsparte fertigen zwar auch bei Samsung, aber keiner der beiden braucht plötzlich soviel 8nm oder generell Kapazitäten, dass man Rekordquartale haben würde.
Deutet also auch stark auf September als Launchtermin (Hardlaunch) für Ampere hin.
Naja, das müssen ja nicht alle Chips sein, NV hat ja auch bisher schon kleinere Chips bei Samsung gefertigt. Oder es gibt eben doch noch eine anderen Auftraggeber.
Leonidas
2020-07-31, 11:01:39
Samsung ist als Chipfertiger sehr groß, leider läßt sich daraus nichts explizites lesen. Verdächtig ist es natürlich.
Zossel
2020-07-31, 11:33:41
Samsung ist als Chipfertiger sehr groß, leider läßt sich daraus nichts explizites lesen. Verdächtig ist es natürlich.
DRAM und Flash dürften die größten Broken sein, dagegen sind ein paar diskrete GPUs lächerlich. Und Handygedöns dürfte auch ein Vielfaches an Volumen gegenüber diskreten GPUs haben.
AffenJack
2020-07-31, 11:44:53
Samsungs Speichergeschäft ist riesig, die Foundry ist nicht so groß. Als Foundry hat Samsung nur QC und NV als große Kunden, außer sich selbst und würde da ein neuer großer dazukommen, dann gäbe es wohl auch Pressemeldungen. Mit Turing war Nv sogar nur bei TSMC und so blieb Samsung nur noch QC. Dazu ist es gerade nicht der typische Releasetermin für neue Samsungtelefone oder QC Chips. Da findet der Ramp eher in Q1 statt.
Ich bleibe dabei, in meinen Augen machen 8nm Kapazitätserweiterungen und Ramp nur Sinn, wenn Nvidia da schon beträchtliche Mengen an Chips produzieren lässt. Wahrscheinlich GA102 und GA104 wird gerade gerampt.
Ex3cut3r
2020-07-31, 11:45:23
Meine Fresse dauert das diesmal. Ein Ankündigung wäre mal endlich was. "Leute hört zu, im September/Oktober/November kommen neue GPUs von uns. Punkt" Dann könnte ich endlich mal planen, denn einen Monat vor Ampere, muss ich meine RTX 2080 noch verkaufen. :biggrin:
Dampf
2020-07-31, 11:57:57
Meine Fresse dauert das diesmal. Ein Ankündigung wäre mal endlich was. "Leute hört zu, im September/Oktober/November kommen neue GPUs von uns. Punkt" Dann könnte ich endlich mal planen, denn einen Monat vor Ampere, muss ich meine RTX 2080 noch verkaufen. :biggrin:
Stimme dir zu, ich kanns langsam auch nicht mehr abwarten. Bin echt gespannt wie Ampere wird. Selbiges gilt für AMD mit Big Navi, die könnten auch mal liefern.
Deine 2080 solltest du lieber vor der Ankündigung von Ampere verkaufen, also genau jetzt. Gehe davon aus, dass Ampere günstiger wird als Turing.
MiamiNice
2020-07-31, 12:12:23
Warum sollte man von günstigeren Preisen ausgehen wenn NV selbst geschrieben hat das es teurer wird?
Hab ich was verpasst?
Slipknot79
2020-07-31, 12:13:40
Meine Fresse dauert das diesmal. Ein Ankündigung wäre mal endlich was. "Leute hört zu, im September/Oktober/November kommen neue GPUs von uns. Punkt" Dann könnte ich endlich mal planen, denn einen Monat vor Ampere, muss ich meine RTX 2080 noch verkaufen. :biggrin:
Unsere Shice innere Graka-Release-Uhr ist leider auf 18 Monate getrimmt. 24 Monate spürt man dann schon in den Knochen. :mad: :wink:
Ex3cut3r
2020-07-31, 12:20:12
Unsere Shice innere Graka-Release-Uhr ist leider auf 18 Monate getrimmt. 24 Monate spürt man dann schon in den Knochen. :mad: :wink:
100% Zustimm. Scheiß Corona. Die Zahlen steigen grad auch wieder. :mad:
Leute, bleibt zuhause und zockt einfach, kein Urlaub in ferne Länder diesmal pls. :redface:
Stimme dir zu, ich kanns langsam auch nicht mehr abwarten. Bin echt gespannt wie Ampere wird. Selbiges gilt für AMD mit Big Navi, die könnten auch mal liefern.
Deine 2080 solltest du lieber vor der Ankündigung von Ampere verkaufen, also genau jetzt. Gehe davon aus, dass Ampere günstiger wird als Turing.
Danke für den Tipp. Aber ne, ich verkaufe immer einen Monat vor neuem rls. die 50€ weniger kann ich verkraften. ;)
Das Ding ist nur, ich muss mir was billiges für 30€ Max kaufen, damit ich vorübergehend wenigstens ein Bild bekomme. Der alte 4770k hatte dafür die iGPU. Der Ryzen hat wiederum nix. ^^
BlacKi
2020-07-31, 12:25:06
den monat bekommen wir auch noch rum.
rentex
2020-07-31, 12:26:41
Meine 2080Ti ist schon für gutes Geld weg. Ist ja eh Sommer und die Spargraka die ich jetzt drin habe, tuts für Desktop und kleinere Titel ebenso.
Und JA, ich will GPU News und ne 10.000$ Nut...
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/
Könnte ne heiße Sache werden.
Ex3cut3r
2020-07-31, 12:27:31
Meine 2080Ti ist schon für gutes Geld weg. Ist ja eh Sommer und die Spargraka die ich jetzt drin habe, tuts für Desktop und kleinere Titel ebenso.
Und JA, ich will GPU News und ne 10.000$ Nut..
Was hast du denn drin aktuell? Ich suche auch etwas für diese Zeit mit dem Ryzen.
Korvaun
2020-07-31, 12:27:56
Na da kommt erst was wenn die alte Gen gut abverkauft ist.. wie immer eigentlich, sofern kein "fettes leak" oder AMD das forciert....
BlacKi
2020-07-31, 12:34:33
Danke für den Tipp. Aber ne, ich verkaufe immer einen Monat vor neuem rls. die 50€ weniger kann ich verkraften. ;)
das letzte mal gabs auch keine 50% mehr performance. aktuell sehe ich die 2080 so bei 500-550€ bei ebay.
ich schau nochmal nach dem die neuen karten draussen sind.
rentex
2020-07-31, 12:36:07
Was hast du denn drin aktuell? Ich suche auch etwas für diese Zeit mit dem Ryzen.
Das dürfte ich hier gar nicht erwähnen :-D
Ist ne einfache RX550 2GB.
Für Desktop und kleine Games eben.
Ex3cut3r
2020-07-31, 12:38:34
Ah ok, das ist mir dann doch zu teuer für ein paar Wochen. Mir fällt grade ein, ich habe hier nur eine GTX 260 von 2009. Musste eigentlich reichen, fürs surfen, bisschen youtube, und porno gucken. :uponder:
Werde ich erstmal testen, bevor ich was gebrauchtes für 30€ kaufe. :biggrin:
das letzte mal gabs auch keine 50% mehr performance. aktuell sehe ich die 2080 so bei 500-550€ bei ebay.
ich schau nochmal nach dem die neuen karten draussen sind.
450-500€ habe ich mir auch vorgestellt. Allerdings verkaufe ich nur im Luxx und hier - erstmal zumindest.
rentex
2020-07-31, 12:41:10
Ja ok. Ich habe eh ne Notnagelkarte gebraucht. Daher hat es sich angeboten.
Dampf
2020-07-31, 12:46:52
Bei Aliexpress ne gefakte 750 für 10€, dann hat sich das :D
das letzte mal gabs auch keine 50% mehr performance. aktuell sehe ich die 2080 so bei 500-550€ bei ebay.
ich schau nochmal nach dem die neuen karten draussen sind.
Ich will deinen Enthusiasmus ja nicht bremsen aber bedenke, dass das wahrscheinlich die 3090 ist, also quasi der Titan Nachfolger mit 24 GB VRAM. Der wird sau teuer.
Die 3080Ti sollte rund 30% schneller als die 2080Ti sein.
rentex
2020-07-31, 15:36:03
Nur gut, das die 3080Ti im Grunde die 3090 sein könnte. Auch NV könnte ihr Namensschema geändert haben. Oder sie kommt später...
Thunderburne
2020-07-31, 18:51:54
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-up-to-35-faster-than-rtx-2080-ti-in-3dmark-timespy/
Troyan
2020-07-31, 18:53:03
So geil, wie aus jedem Unsinn von dem Twitter-Typ diese Clickbait-Seite eine News macht.
Achja, der Typ hat gestern noch gesagt, dass die 10.000 Punkte der anderen Karte nicht gesichert wären...
BlacKi
2020-07-31, 19:22:36
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/
Thunderburne
2020-07-31, 19:29:56
Gut das Mann Wakü hat.
rentex
2020-07-31, 19:31:54
@BlacKi Das hab ich schon vorher gepostet ;-)
BlacKi
2020-07-31, 19:47:16
:wink:
Rampage 2
2020-07-31, 22:40:11
Na da kommt erst was wenn die alte Gen gut abverkauft ist...
Wenn NV die alte Generation so schnell wie möglich loswerden/abverkaufen will, dann müssen aber die Preise für die Turing-GPUs ein ganzes Stück weiter sinken als sie es jetzt schon tun - in den letzten Wochen sind die Preise zwar merklich gesunken, aber dennoch ist das nicht genug. Denn kein informierter Käufer wird jetzt, wo Ampere vor der Tür steht, noch 700+ € für eine Turing-GPU (2080S, 2080 Ti) ausgeben; möglicherweise sogar keine 500+ € (2070S) mehr...
Nochmal 100-200€ weniger und dann wird schon viel eher ein Schuh draus:) (wird NV aber wohl nicht machen - mal sehen, wie der (informierte) Käufer darauf reagiert...)
R2
Zergra
2020-07-31, 22:44:45
Deswegen sind die Chips ja auch EOL und werden in den nächsten Monaten verschwinden. Die Reste verkaufen sich dann von alleine.
Rampage 2
2020-07-31, 22:48:09
Deswegen sind die Chips ja auch EOL und werden in den nächsten Monaten verschwinden.
Ist das schon bestätigt? :|
R2
Zergra
2020-07-31, 23:04:49
Naja offiziell nicht, aber die Gerüchte kommen nicht von ungefähr... da das ganze alles etwas verzögert hier ankommt, passt das zu einem Ampere Release im August/September.
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Nvidia-Turing-Geruechte-ueber-EOL-der-Geforce-RTX-2070-2080-und-steigende-Preise-1354058/
Edgecrusher86
2020-07-31, 23:10:34
Zwischen 15-20% Differenz zwischen der RTX 3090 und RTX 3080 dürften es wohl am Ende werden. Mehr könnte man wohl nur mit einem restriktiven BIOS erreichen (PT) -
in Anbetracht, dass AMD in Q4 auch mehrere Karten bringen wird, scheidet so eine Überlegung vermutlich aus.
BlacKi
2020-07-31, 23:32:23
Ist das schon bestätigt? :|
R2
nicht alle chips. aber die, die man ersetzen will. tu104 oder darunter jetzt, oder schon vor 1-2 monaten EOL zu setzen hat sicher keinen zweck.
bestätigt wird da sowieso nichts.
Rampage 2
2020-07-31, 23:58:35
nicht alle chips. aber die, die man ersetzen will.
Ich denke, das hängt davon ab, welcher Chip zuerst auf den Markt kommt - wenn es wieder zuerst der GA104 ist, wie es bis Pascal der Fall gewesen ist (Turing bzw. TU102 war in dieser Hinsicht ja eine Ausnahme) und GA102 erst ein paar Monate später kommt, dann könnte ich mir schon vorstellen, dass NV auch TU104 (2070S, 2080S) schnellstmöglich loswerden will... (nebst TU102)
In einem solchen Szenario würde NV nur TU106 (und dadrunter) eine Gnadenfrist geben.
R2
BlacKi
2020-08-01, 00:37:15
Ich denke, das hängt davon ab, welcher Chip zuerst auf den Markt kommt - wenn es wieder zuerst der GA104 ist, wie es bis Pascal der Fall gewesen ist (Turing bzw. TU102 war in dieser Hinsicht ja eine Ausnahme) und GA102 erst ein paar Monate später kommt, dann könnte ich mir schon vorstellen, dass NV auch TU104 (2070S, 2080S) schnellstmöglich loswerden will... (nebst TU102)
In einem solchen Szenario würde NV nur TU106 (und dadrunter) eine Gnadenfrist geben.
R2
ga102 kommt sowieso zuerst.
es gibt gerüchte, das ga104 (aka 3070)gecancelt wurde. ausserdem braucht man tu104 um das fehlen von ga106 auszugleichen. ich glaub, nur der tu102 wurde EOL gesetzt. wenn ga104 vorerstgecancelt wurde, dann fehlt sowieso ein ganzes stück um alles preisgefilde zu stopfen.
Rampage 2
2020-08-01, 01:27:34
es gibt gerüchte, das ga104 (aka 3070)gecancelt wurde.
Kann es sein, dass du den GA103 (der ursprüngliche Kandidat für die 3080) meintest? Ich verfolge die News zu Ampere/RDNA2 schon aufmerksam und habe bis jetzt nichts von einem GA104-Cancel gehört, nur für den GA103 (welcher 60 SMs an einem 320Bit-SI haben sollte). Aber vielleicht bringt NV den GA103 später ja doch noch raus - als "Super"-Refresh für nächstes Jahr;D
R2
BlacKi
2020-08-01, 01:40:28
zuerst, alles nur gerüchte. aber ich meinte gelesen zu haben, das man die 3070 später bringen will, ende des jahres. mein problem, ich finds nichtmehr...
N0Thing
2020-08-01, 01:42:38
Gab es nicht immer wieder mal Gerüchte zu einem Gx103 in den einzelnen Generation, der dann nie das Licht der Welt erblickt hat? Vielleicht ist der 103er immer eine Simulation der Salvage-Variante?
Slipknot79
2020-08-01, 01:52:34
zuerst, alles nur gerüchte. aber ich meinte gelesen zu haben, das man die 3070 später bringen will, ende des jahres. mein problem, ich finds nichtmehr...
Alles qool, hab den Shice auch so vernohmen. :redface:
Rampage 2
2020-08-01, 01:54:10
Vielleicht ist der 103er immer eine Simulation der Salvage-Variante?
AFAIK war GA103 schon als ein eigenständiger Chip (60 SMs, 320Bit) geplant gewesen - hat Nvidia gecancelt, weil vermutlich 60 SMs nicht genug gewesen sind und eine Beschneidung des GA102-SI auf 320Bit Dasselbe bewirkt aber mehr SMs ermöglicht. Fände den Chip aber dennoch sinnvoll - sollte wohl die Lücke zwischen GA102 und -104 füllen.
R2
Troyan
2020-08-01, 10:17:29
Meine 2080Ti ist schon für gutes Geld weg. Ist ja eh Sommer und die Spargraka die ich jetzt drin habe, tuts für Desktop und kleinere Titel ebenso.
Und JA, ich will GPU News und ne 10.000$ Nut...
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/
Könnte ne heiße Sache werden.
350W sind auch mit Luft nicht kühlbar. Muss man überhaupt keine theoretischen Betrachtungen anstellen.
ChaosTM
2020-08-01, 10:42:03
Meine 1080ti genehmigt sich im 120% Modus auch ca. soviel. Luft-Kühlbar ist es, aber mit Schmerzen im Gehörgang..
Troyan
2020-08-01, 10:43:30
Meine 2080TI von Gigabyte zieht mit zu 360W. Der Kühler zu klein, der Sommer zu warm...
>300W ist der Punkt, wo man nur noch massiven Aufwand überhaupt vernünftige Lösungen anbieten kann.
Edgecrusher86
2020-08-01, 11:16:06
Das ist alles eine Frage des Aufwands bezüglich Luftkühlung. :biggrin:
GTX 480 passiv @ Furmark (lauter XBox 360 Kühler -> 75°C Peak!):
https://abload.de/thumb/gtx480_passivgdj2y.jpg (https://abload.de/image.php?img=gtx480_passivgdj2y.jpg)
Raff damals mit der GTX TITAN X bei 350-400W und 1500/4000 MHz stabil:
https://abload.de/thumb/gtx_titan_x_mod-bios_fbkzk.jpg (https://abload.de/image.php?img=gtx_titan_x_mod-bios_fbkzk.jpg)
Letzeres sicher nur bedingt leise, haha.
Gut, es kommt halt immer darauf an, ob man jetzt Brechstange fahren will oder einen Kompromiss eingeht. Die genannte Gigabyte RTX 2080 Ti Gaming OC lässt sich zum Beispiel per UV auch konstant bei 1,9 GHz @ ~ 925mV und 300-330W auch bei härtesten Fällen betreiben - mit 1,8 GHz zum Beispiel dürften 8xx mV und vermutlich nochmals über 20W Ersparnis möglich sein. Bezüglich den fps ist es doch eigentlich Makulatur, ob eine solche Karte mit 1,8 GHz oder 2 GHz rennt - wir reden dann von grob 10% Leistungsdifferenz. Ich sehe das relativ entspannt - wenn die Grundleistung passt, muss ich nicht prügeln, um das letzte Frame zu erreichen. Ich betreibe die Karten hier (1080 Ti FE) sogar meistens nur mit 1,67 GHz @ 800mV bei 130-180W. Das langt eigentlich für alles nativ bei 50-60 fps [mit G-SYNC eine runde Sache] - nur wenn mal MP gespielt wird, etwa BF1, will ich mehr fps sehen. ;)
Eine Lösung wie der Alphacool Eiswolf 2, aber besser mit 360er Radiator und leisen Lüftern ab Werk wäre dann natürlich deutlich besser bei Karten, die weit jenseits der 300W ziehen dürfen -
die Pumpe ist in dem Fall auch quasi lautlos.
https://www.youtube.com/watch?v=-pJZkbKFMo0
Troyan
2020-08-01, 11:32:30
Es ging ja um die Abführung von 360W. Das ich meine Karte auch mit 300W nutzen kann, steht außer Frage.
Es ist sowieso lächerlich um Referenz-Karten mit 350W zu reden. A100 PCIe erreicht bei 250W 19,5 TFLOPs FP32 Leistung, das sind 78 GLFOPs/W. Die 2080TI FE (275W) liegt irgendwo zwischen 53 und 58 GFLOPS/W.
Gaming-Ampere soll jedoch gerade mal im einstelligen Bereich die Effizienz steigern. Muss man nicht wirklich mehr kommentieren.
Edgecrusher86
2020-08-01, 11:50:15
Ja, so sinnig ist das nicht, eine Karte ab Werk vom IHV bei 300W+ Standard PT - mit Ausnahme Dual-GPU vielleicht - das wird dann heiß und laut. Siehe V64 Air bei 1500MHz+. :D
Nun ja, oben genannte A100 als klassische PCI-E Karte wird aber nicht lange mit dem Peak-Boost laufen. Das mag dann im Schnitt vielleicht nur zwischen 1-1,2 GHz sein, was dort gehalten wird -
dann wären wir bei grob 13,8 - 16,6 TF/s FP32 und 55 - 66 GFLOPs/W. Gut, man muss natürlich auch bedenken, dass die Karte wohl zumeist eher bei 230-240W liegen dürfte und nicht die 250W voll ausfährt.
260W gibt ja NV für die 2080 Ti FE an, aber ja - das ist auch optimistisch - es sind in etwa 273-275W gemessen.
Was ich mich auch frage: Samsung hat ja den 7LPP Prozess im Oktober 2019 marktreif gehabt für den Exynos 990. Das war wohl zu kurzfristig für NV, auf diesen zu bauen, oder?
HP und Mobile sind eh zwei Paar Schuhe und es bedarf sicherlich einer langfristigen Optimierung.
Der Prozess an sich soll ja in etwa TSMCs N7/N7P entsprechen in Dichte. Man hätte sicher locker 20-30% DIE-Size gegenüber 8LPP (also 10LPP+) gespart und die Taktraten sicherlich auch um bis zu 10% weiter erhöhen können bei geringen Verbrauchswerten. Samsung spricht hier ja von einem Full Node bezogen auf ihren 10LPP. Ich bin gespannt, ob das vielleicht für die vermeintlichen 2021er Refresh-Karten in Betracht gezogen wird. Noch weiter Prügeln wird ja nicht gut gehen.
50 Mio.+/ Transistoren pro mm2 sind ja sicherlich mit einem verbesserten 7nm-Prozess möglich für High-Power-Chips mit hohen Taktraten. Ich bin gespannt, wie das bei Big Navi aussehen wird.
GA100 setzt ja allem Anschein nach auf einen Mobile-Verfahren, was die hohe Packdichte und "niedrige Taktraten" erklären dürfte.
Troyan
2020-08-01, 11:56:23
Laut nVidia ist "sustained" bei 90%. Aber "Standard" FP64 und FP32 sind für A100 keine so relevanten Metriken. Zum Vergleich erreicht A100 PCIe bei FP16 VEC2 ca. 78TFLOPs. Das entspricht 312 GFLOPs/W. V100 PCIe (aber auch Turing) liegt bei ca. 130 GFLOPs. Das ist dann schon 2,5x besser...
Samsung benutzt EUV bei 7nm. Ggfs. war das nVidia zu gefährlich. A100 setzt auf TSMCs 7nm DUV Prozess.
Edgecrusher86
2020-08-01, 12:24:48
Korrekt. Vermutlich war das dann Ausschlag gebend, dass NV hier auch auf den bewährten DUV Prozess gesetzt hat, wie parallel auch bei TSMC. Die zu erwartenden Yield-Raten und der Release-Zeitraum von GA100 im Mai bis vermutlich hinunter G104 im vierten Quartal 2020 waren wohl entscheidend für N7 und 8LPP (10% Flächenersparnis auf 10LPP).
Hier nochmal etwas zu 7LPP:
https://news.samsung.com/global/samsung-electronics-starts-production-of-euv-based-7nm-lpp-process
https://www.techinsights.com/blog/techinsights-confirms-samsungs-true-7lpp-process-samsung-exynos-990
7LPP hätte bis zu 40% mehr Packdichte auf 10LPP, also plus 30% auf 8LPP. Zusätzlich gibt man +20% Power bei gleichem Verbrauch an (auf 10LPP bezogen).
Damit wäre der GA102 wohl ähnlich groß wie GP102 (471mm2) ausgefallen.
Allen Anzeichen nach wird GA102 wohl eine Art Revival der GTX 480 mit OC. Schnell, aber sehr durstig. Es bleibt bezüglich Referenzdesign zu hoffen, dass die kolportierten 320-350W Angaben dann jeweils inklusive maximierten Power-Targets sind, oder alternativ einfach Werte, die die PCBs dauerhaft ab können, sonst wird es warm und vermutlich laut.
Ex3cut3r
2020-08-01, 12:48:55
GTX 480 passiv @ Furmark (lauter XBox 360 Kühler -> 75°C Peak!):
https://abload.de/img/gtx480_passivgdj2y.jpg
WTF??? :biggrin: :biggrin: ;D ;D
Edgecrusher86
2020-08-01, 12:59:56
WTF??? :biggrin: :biggrin: ;D ;D
Wo ein Wille ist...:
https://www.pcgameshardware.de/Luftkuehlung-Hardware-217993/News/Abgefahren-Irre-Passivkuehler-im-Eigenbau-luefterlose-GTX-480-895023/
Das wäre vielleicht ein Vorschlag für Jensen. PCI-E 4.0 Riser Kabel inklusive und eine passive RTX 3090 mit MoRA verlötet (inklusive Ständer natürlich). Silent Edition. :D
Hakim
2020-08-01, 14:08:43
Alda hab ja schon vieles gesehen aber das :)
MiamiNice
2020-08-01, 21:20:53
In dem Haushalt wohn sicher keine Frau :redface:
Platos
2020-08-01, 21:30:56
In dem Haushalt wohn sicher keine Frau :redface:
;D;D
Aber geil ist es, aber optisch lässt es zu wünschen übrig :D
BiZiNiZz
2020-08-02, 00:38:20
Form follows Function :freak:
Ich hab mir noch nie Gedanken über die Lautstärke gemacht. Meine Rechner stehen seit Gefühlt 20 Jahren im Keller, dort können sie Lärmen wie sie wollen, das Büro ist direkt Oberhalb.
Leonidas
2020-08-02, 06:01:21
zuerst, alles nur gerüchte. aber ich meinte gelesen zu haben, das man die 3070 später bringen will, ende des jahres. mein problem, ich finds nichtmehr...
Hat nichts mit Streichung zu tun, ist normaler Release-Ablauf. Alle Chips kommen bei NV üblicherweise im Abstand 2-3 Monate.
Cubitus
2020-08-02, 06:04:13
Alda hab ja schon vieles gesehen aber das :)
Das ist ein Heizkörper xD
Hasenpfote
2020-08-02, 10:38:47
Form follows Function :freak:
Ich hab mir noch nie Gedanken über die Lautstärke gemacht. Meine Rechner stehen seit Gefühlt 20 Jahren im Keller, dort können sie Lärmen wie sie wollen, das Büro ist direkt Oberhalb.Und dann via Remote Desktop/TeamViewer drauf oder hast DU 10m USB/HDMI-Kabel verlegt?
Sorry for OT, aber ich grübel da schon seit Jahren drüber.
Mir genügen locker 3Meter. (mein PC steht hinter der Wand im Nachbar Zimmer)
Kann ich nur empfehlen :up:
M.f.G. JVC
OgrEGT
2020-08-02, 20:51:48
Igor Spekulatius zur Abwärme und Kühlung
https://www.igorslab.de/luftkuehlung-bei-nvidias-ampere-rtx-mit-grossen-problemen-exklusive-hintergrundinfo-und-eine-analyse/
Thunderburne
2020-08-02, 21:04:31
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Sampling-Ende-August-1355333/
Linmoum
2020-08-02, 21:18:04
Meint ihr, Nvidia veröffentlicht die GPUs schneller, wenn wir hier alles fünfmal posten? :D
just4FunTA
2020-08-02, 21:24:04
ja
rentex
2020-08-02, 21:35:31
Ja klar :-D
BlacKi
2020-08-02, 21:39:27
das ist wie mit dem OT quatsch im navi fred, das hat den sinn, mehr leaks zu farmen.
Slipknot79
2020-08-02, 21:53:20
Wenn mal nen Graka-Realase im Sommer kommt, muss Lederjacke dann in ein kühles Land reisen und dort seine Graka präsentieren damit er seine Lederjacke angezogen lassen kann? :redface:
reaperrr
2020-08-02, 22:28:55
Wenn mal nen Graka-Realase im Sommer kommt, muss Lederjacke dann in ein kühles Land reisen und dort seine Graka präsentieren damit er seine Lederjacke angezogen lassen kann? :redface:
Nee. Jensen ist so cool, der schwitzt nur im Gesicht :cool:
Nuvirus
2020-08-03, 02:20:29
bei dem geplanten Verbrauch wenn es so kommt mach ich mir eher um die Graka sorgen im Sommer mit Standardkühler etc
bei dem geplanten Verbrauch wenn es so kommt mach ich mir eher um die Graka sorgen im Sommer mit Standardkühler etc Kauf einfach ne 3060 RTX die wird nicht so heiß. Ich glaub ich werde mir sogar so eine zulegen als Übergang zur nächsten Generation mit mehr Speicher (16GB).
Thunder99
2020-08-03, 09:40:30
Gibt es einen neuen Hitzekopf wie damals Fermi? Prozess Probleme und oder Design Fail? Oder doch nur an der Kotz-Grenze betrieben damit man einen Performance Sprung hat?
Wirft erstmal kein gutes Licht, trotz anscheinend verbessertes Raytracing.
Ich nehme an, das Ganze könnte wegen DLSS3 zustandekommen.
Igor meinte ja, es gibt 2 Power-Domains auf der Karte, eine extre für Tensor. Das und zusammen mit dem verbrauchsintensiven Speicher kommt man eben auf 350W. Die Karte könnte aber per Standard DLSS3 nutzen und damit auch die Tensorcores auslasten. Auch die 10k Punkte werden wegen DLSS3 zustande kommen mMn. NV hat eben einen Weg gefunden, die Leistung signifikant ohne mehr Rohleistung zu steigern mit dieser Technik. Ich bin gespannt auf das Resultat.
Hey zusammen, ich plauder mal kurz mit etwas OT aber mich interessiert eure Einschätzung. Folgendes: ich hab ne 2080 Super, vor nem halben Jahr für 500 Flocken geschossen. Ansch zufrieden mit dem Ding aber genug Leistungs gibts nie und wenn dann mal ne Pimax 8kx da ist, wird eh jede Karte zu langsam sein.
Sollte ich das Ding jetzt verkaufen und dann auf A upgraden (3080?) oder würdet ihr nicht von einem krassen Preisrutsch im Gebrauchtmarkt für Turing ausgehen? Frage mich das seit geraumer Zeit. Hab im August eh Urlaub und zocke nicht + ne 1070 als Notnagel da ;)
Radeonfreak
2020-08-03, 10:27:46
Ich nehme an, das Ganze könnte wegen DLSS3 zustandekommen.
Igor meinte ja, es gibt 2 Power-Domains auf der Karte, eine extre für Tensor. Das und zusammen mit dem verbrauchsintensiven Speicher kommt man eben auf 350W. Die Karte könnte aber per Standard DLSS3 nutzen und damit auch die Tensorcores auslasten. Auch die 10k Punkte werden wegen DLSS3 zustande kommen mMn. NV hat eben einen Weg gefunden, die Leistung signifikant ohne mehr Rohleistung zu steigern mit dieser Technik. Ich bin gespannt auf das Resultat.
Mich würde ja interessieren ob DLSS3 dann auch auf ner 2080Ti läuft. Hab ja jetzt schon 7000 Punkte im Timespy Extreme, da würd der Vorsprung ja noch ein wenig zusammenschmelzen. :freak:
MiamiNice
2020-08-03, 10:45:08
Ich kann mir schwerlich vorstellen das die Punkte an DLSS3 liegen und es dauer aktiv ist. NV würde für ein solches Vorgehen derart Schelte kassieren und Ruf verlieren, das kann kaum das Ziel sein. Die 10000 Punkte müssen non OC Rohpower sein und der ganze andere Käse wird noch oben drauf kommen.
Turing ist mit dem Release von Ampere tot. Tunring konnte auch noch nie wirklich RT. Wie immer ist die erste Gen eine Lachnummer, mich würde wundern wenn mit Turing noch Cyberpunk + RTX anständig laüft. Vielleicht auf 720p mit DLSS :freak:
Dampf
2020-08-03, 10:49:26
Turing ist mit dem Release von Ampere tot. Tunring konnte auch noch nie wirklich RT. Wie immer ist die erste Gen eine Lachnummer, mich würde wundern wenn mit Turing noch Cyberpunk + RTX anständig laüft. Vielleicht auf 720p mit DLSS :freak:
Und Ampere wird so viel besser, weil es irgendein YouTuber gesagt hat?
RT ist halt sehr leistungsfordernd und das wird auch so bleiben, genauso wie SSR Reflektionen auch viel Leistung ziehen. Der RT Prozess auf den RT Cores, also Traversal und Intersection, wird schon ordentlich beschleunigt. Der Rest entscheidet die Rohpower der Grafikkarte. Du kannst den Prozess optimieren und vielleicht 10-20% rauskriegen, aber niemals 4x generelle Raytracing Leistung, das ist Unfug.
Zergra
2020-08-03, 10:59:30
Die 4x sind bestimmt drin, wenn man die Rohleistung stark aufbohrt und DLSS dabei ist....
Dampf
2020-08-03, 11:05:16
Die 4x sind bestimmt drin, wenn man die Rohleistung stark aufbohrt und DLSS dabei ist....
Naja, eine 3080Ti soll angeblich 30% schneller sein als eine 2080Ti, das reicht bei weitem nicht für 400% schnelleres Raytracing.
DLSS unterstützt Turing ebenso.
Raytracing kann trotzdem deutlich schneller werden, wenn man das Denoising auf die Tensor Cores verlagert und die Settings für Raytracing anpasst. Das wäre aber dann keine Hardware, sondern eine Software-Innovation und auch mit Turing möglich. DXR 1.1 soll laut AMD auch ein paar Kniffe bieten, um RT noch effizienter darzustellen als bisher.
Es wird in Zukunft bestimmt deutlich flexiblere RT-Einstellungen geben, gerade auch wegen den Konsolen. Raytracing muss auch nicht zwangsläufig immer langsamer sein als die Raster-Version, es ist möglich dass in Zukunft RT Schatten auf niedrig besser aussehen und besser laufen als ihre Raster Versionen. Selbiges kann eventuell sogar für Reflektionen gelten. Mal abwarten.
MiamiNice
2020-08-03, 11:10:35
Und Ampere wird so viel besser, weil es irgendein YouTuber gesagt hat?
Was ist ein Youtuber?
Naja, eine 3080Ti soll angeblich 30% schneller sein als eine 2080Ti, das reicht bei weitem nicht für 400% schnelleres Raytracing.
40-50% mehr und es sollen min. 200% mehr RTX Leistung werden.
Nope, Turings Tensorleistung wird erheblich geringer sein als die von Ampere. Ich könnte mir vorstellen, man wird für das DLSS3 entsprechende Tensorleistung benötigen, vor allem, wenn man das RT-Denoising gleichzeitig nutzen möchte. Damit wäre Turing nicht fähig, DLSS3 zu nutzen.
Ich stimme Miami zu, Turing ist ein Erstling für die neue Technik und entsprechend unbrauchbar bei "erwachsenen" Anwendungen (wozu Cyberpunk aber nicht gehört, das ist lastgen mit RT-Anpassung). Ich bleibe auch bei meiner Theorie, dass Volta NV nicht genug war und deshalb durch Turing ersetzt wurde mit entsprechender RT-Technik, die vorher durch Microsoft definiert wurde. Ich nehme an, wenn man Volta auf den Markt gebracht hätte, sähen die alle so aus wie TU11x.
Ich finde das auch gar nicht schlimm, dass NV das dann so löst, wenn das Resultat stimmt. Man substituiert die entsprechend nötige Rohleistung durch intelligente Technik, die weniger Strom verbraucht netto. Man könnte somit erheblich bessere Gesamtleistung mit aktiviertem RT erreichen als bei AMD mit alles-über-die-Shader-Technik, die entsprechend mehr Rohleistung bieten wird. Wir werden sehen, was daraus wird. Man bekommt aber ziemlich sicher ein Produkt, dass man auch will, wenn man nicht markenorientiert ist.
Dampf
2020-08-03, 11:14:22
Was ist ein Youtuber?
40-50% mehr und es sollen min. 200% mehr RTX Leistung werden.
Die News Seiten die behaupten, Ampere hätte 4x mehr RT Leistung, haben in ihren Quellen alle Moores Law is Dead angeben, einen YouTuber der als über Technik labert und angeblich "Quellen" hat.
Quelle für 200%? Ihr solltet euch mal alle ein bisschen mehr mit Raytracing beschäftigen, dann kommt ihr zu dem Schluss, dass solche krassen Steigerungen Unfug sind.
Nope, Turings Tensorleistung wird erheblich geringer sein als die von Ampere. Ich könnte mir vorstellen, man wird für das DLSS3 entsprechende Tensorleistung benötigen, damit wäre Turing nicht fähig, DLSS3 zu nutzen.
Ich stimme Miami zu, Turing ist ein Erstling für die neue Technik und entsprechend unbrauchbar bei "erwachsenen" Anwendungen (wozu Cyberpunk aber nicht gehört, das ist lastgen mit RT-Anpassung).
Ich finde das auch gar nicht schlimm, dass NV das dann so löst, wenn das Resultat stimmt. Man substituiert die entsprechend nötige Rohleistung durch intelligente Technik, die weniger Strom verbraucht netto.
Die TensorCore Leistung von FP32 und FP64 ist deutlich gesteigert bei Ampere HPC, weil bei Volta und Turing nur FP16 und niedriger beschleunigt wurden. Für Gaming hat bezüglich machine learning nur FP16 und geringer Relevanz, die Tensor Cores wird man also dementsprechend anpassen. Trotzdem sind die effizienter das ist wahr, das wird aber wohl eher dazu genutzt, um weniger Tensor Cores zu verbauen und damit mehr die-space für RT und Shader Cores zu erhalten. Gerade für kleinere Karten macht das Sinn, sollte es eine RTX 3050 geben.
DLSS muss gar nicht mit RT-Denoising gleichzeitig laufen. DLSS ist Post-Processing und wird erst am Ende des Frames angewendet. Das Denoising beansprucht Shader-Zeit nachdem der RT Effekt erstellt wurde, hier sind die Tensor Cores sowieso Idle. DLSS 3.0 ist übrigens wieder sowas, was von dem YouTuber kam. DLSS Injektion per Treiber in jedem Spiel ist ebenfalls Unsinn.
RT ist halt sehr leistungsfordernd und das wird auch so bleiben, genauso wie SSR Reflektionen auch viel Leistung ziehen. Der RT Prozess auf den RT Cores, also Traversal und Intersection, wird schon ordentlich beschleunigt.
Aber auch das Traversal ist noch viel zu langsam. Selbst wenn sie da einen Faktor 10 erreichen, kann man das problemlos verfeuern. "Notfalls" in bessere/schnellere Schatten und AO. Aber auch ansonsten kann man potentiell mit mehr Strahlen auch die Shadinglast pro Strahl drücken.
Dampf
2020-08-03, 11:24:14
Aber auch das Traversal ist noch viel zu langsam. Selbst wenn sie da einen Faktor 10 erreichen, kann man das problemlos verfeuern. "Notfalls" in bessere/schnellere Schatten und AO. Aber auch ansonsten kann man potentiell mit mehr Strahlen auch die Shadinglast pro Strahl drücken.
In der Hinsicht wird sich sicherlich auch einiges tun, da hast du recht. Aber wenn man sich mal einen RTX Frame anguckt, dann sieht man, dass der Prozess auf den RT Cores gegen die allgemeine Shader Last (die ja durch RT auch signifikant erhöht wird) kaum Gewicht hat.
Bedenke, je mehr RT Effekte du hast, desto mehr Shader Last hast du auch, denn die ganzen Schatten, Reflektionen und GI müssen ja auch gerendert werden. Der RT Prozess ist nur beschleunigtes Traversal und Intersection, der Rest findet auf den Shader Cores statt (Bei AMD übrigens auch)
In der Hinsicht wird sich sicherlich auch einiges tun, da hast du recht. Aber wenn man sich mal einen RTX Frame anguckt, dann sieht man, dass der Prozess auf den RT Cores gegen die allgemeine Shader Last (die ja durch RT auch signifikant erhöht wird) kaum Gewicht hat.
Bedenke, je mehr RT Effekte du hast, desto mehr Shader Last hast du auch, denn die ganzen Schatten, Reflektionen und GI müssen ja auch gerendert werden. D
Das halte ich gerade für Schatten/AO ohne Transluzenz für eine Fehlinterpretation. Shaderlast erzeugst du da vorallem durchs Denoising. Das wird aber mit mehr Strahlen nicht teurer.
Gipsel
2020-08-03, 12:01:53
Igor meinte ja, es gibt 2 Power-Domains auf der Karte, eine extre für Tensor.Das glaube ich weniger. Die Tensorcores sind Teile der SMs und nutzen die gleichen Register. Die werden vermutlich auch nicht anders versorgt als andere Teile des SMs.
Dural
2020-08-03, 12:06:59
Wie soll das auch Funktionieren?!? Der Aufwand wäre wahrscheinlich sehr gross für relativ wenig nutzen, wenn überhaupt! Der zusätzliche Aufwand benötigt ja dann auch Strom und vor allem Die Fläche.
Keine Ahnung was sich da Igor zusammen gereimt hat.
ChaosTM
2020-08-03, 12:43:54
Die 2. Power Domain ist für den Co-Prozessor :D
pixeljetstream
2020-08-03, 12:52:46
RLZ und Dampf je nach Effekt sind mal mehr oder weniger die rtcores das Limit. Allerdings sollte man selbst bei AO und Schatten bedenken dass sowas wie Alpha test auch auf der SM stattfinden muss, wenngleich das nicht so reinhaut wie volles reflection shading. Allerdings gibt es in der Tat unter Entwicklern sowas wie nen aha Effekt, wenn strahlen so viel billiger werden, das man anders Probleme löst als mehr pro Strahl zu berechnen... was sich da ergibt wird man halt über die Jahre sehen.
Dural
2020-08-03, 13:13:00
aber das wird bei ampere ja noch nicht der fall sein, oder? ;)
Dampf
2020-08-03, 13:20:51
RLZ und Dampf je nach Effekt sind mal mehr oder weniger die rtcores das Limit. Allerdings sollte man selbst bei AO und Schatten bedenken dass sowas wie Alpha test auch auf der SM stattfinden muss, wenngleich das nicht so reinhaut wie volles reflection shading. Allerdings gibt es in der Tat unter Entwicklern sowas wie nen aha Effekt, wenn strahlen so viel billiger werden, das man anders Probleme löst als mehr pro Strahl zu berechnen... was sich da ergibt wird man halt über die Jahre sehen.
Das ist natürlich wahr.
Ich persönlich glaube, so ein AI-Denoiser auf den Tensor Cores könnte diesen Aha-Effekt auslösen. Wenn der AI-Denoiser deutlich effizienter das Bild entrauscht, bräuchte man weniger Strahlen und Shading-Last (also deutlich weniger Last auf RT und Shader cores) um das selbe Ergebnis der Denoising Shader-Variante zu erhalten und zudem entlastet man durch die Tensor Cores die SM, die zuvor mit dem Denoising beschäfigt waren. Denoising in Minecraft's Path Tracing braucht satte 40% der Render-Zeit, da kann man viel rausholen! Bestimmt auch nicht bei Hybrid-Rendering zu verachten.
Eventuell kann man ja auch machine learning nutzen, um eine Approximation von Strahlen zu geben, so kann man ebenfalls für ein ähnliches Ergebnis deutlich weniger Strahlen verschießen und spart an Performance.
Für geringere Shader-Last könnte man ja VRS und DXR 1.1 kombinieren.
Aber das sind nur meine Vorschläge, ich bin sicher ihr arbeitet an echt coolem Zeugs, was wir, wie du schon sagtest, irgendwann mal sehen werden :smile:
Gipsel
2020-08-03, 13:29:58
Keine Ahnung was sich da Igor zusammen gereimt hat.Wo hat er das eigentlich gesagt? In dem Video zu den 350W für Ampere? Da kenne ich nur die Tabelle. Zu der kann man übrigens kritisch anmerken, daß Speicherchips bei Ansteuerung mit halber Breite (wie er das bei den im Raum stehenden 24 Modulen zu je 8Gbit an einem 384Bit-Interface voraussetzt, da nutzt jeder Chip nur 16bit des Interfaces statt der eigentlich vorhandenen 2x16=32bit) nur etwas über die Hälfte des nominellen Verbrauchs zeigen. Genutzte Bandbreite treibt den Verbrauch hoch, nicht so sehr die Menge (weswegen die Versionen mit mehr Speicher normalerweise auch nicht wirklich viel mehr verbrauchen). Wenn also ein Chip bei Anbindung mit vollem Interface nominal 2,5W verbrauchen soll (wie von ihm gesagt), dann zieht das Ding im "Clamshell"-Modus wohl eher nur 1,5W pro Modul (früher haben die Hersteller beide Fälle spezifiziert, für GDDR6X habe ich noch kein Datenblatt mit Angaben dafür gesehen).
Edit:
Gefunden.
https://www.igorslab.de/braucht-nvidia-fuer-ampere-neue-loesungen-fuer-die-spannungsversorgung-aktuelles-turing-design-als-moeglicher-flaschenhals/
H1C5V_hi38s
Macht aber immer noch keinen Sinn. Die Priorisierung/Balancing ist eher eine Aufgabe für den Command Processor bzw die Workdistribution.
Und die Spannungsversorgung ist aus gutem Grund die gleiche. Das aufzuteilen wäre massiver Mehraufwand (sowohl für die VRMs als auch on-Die), wo man zudem die gesteigerte Gesamtkapazität nie nutzen könnte (weil Gesamtleistungsaufnehme natürlich gedeckelt ist). Wenn die GPU z.B. auf 300W gedeckelt wäre, was bringt es da, neben einer 300+W Spannungsversorgung noch parallel eine 150W Versorgung für RT-/Tensorcores daneben zu packen? Natürlich gar nichts. Eine einzige 300W-Versorgung für Alles ist da deutlich billiger zu implementieren und hat keinerlei negative Auswirkungen.
pixeljetstream
2020-08-03, 14:08:51
...ich bin sicher ihr arbeitet an echt coolem Zeugs, was wir, wie du schon sagtest, irgendwann mal sehen werden :smile:
Es ist ja nicht nur NV sondern halt "alle" die sich nun mit den hw Fähigkeiten auseinander setzen, also insbesondere die SW Entwickler auch. Wie das hw Verhältnis aus shading/tracing unter den Konsolen ist, wird da auch Einfluss haben, welche patterns sich als praktisch erweisen. Paar Versionsnummern sind für dxr und dx ja noch übrig ;)
rentex
2020-08-03, 15:23:47
Ich gehe mal davon aus, das Igor durchaus mehr weiß und wegen einer NDA gebunden ist...
y33H@
2020-08-03, 15:34:13
Wenn es bereits ein NDA gäbe wäre schon alles geleakt :freak:
Troyan
2020-08-03, 15:41:31
Ist doch schon. Die Tweets nicht gesehen?
Thunderburne
2020-08-03, 15:59:25
https://www.gamestar.de/artikel/nvidia-rtx-3080-3090-time-spy-extreme,3360447.html
Gipsel
2020-08-03, 17:47:27
Ich gehe mal davon aus, das Igor durchaus mehr weiß und wegen einer NDA gebunden ist...Ich gehe davon aus, daß die Wenigsten mit allen technischen Details so vertraut sind, daß man nicht doch mal was in den falschen Hals bekommen kann und dann Blödsinn schlußfolgert. ;)
BlacKi
2020-08-03, 17:54:50
Wenn es bereits ein NDA gäbe wäre schon alles geleakt :freak:
sarcasm?
y33H@
2020-08-03, 19:01:34
Ist doch schon. Die Tweets nicht gesehen?
Ich sehe bisher keine gescheiten Leaks der finalen Karten, nope.
rentex
2020-08-03, 19:30:11
@Gipsel Das setzt voraus, das man mehr weiß ;-)
Gipsel
2020-08-03, 19:35:32
@Gipsel Das setzt voraus, das man mehr weiß ;-)Das setzt gar nichts voraus, außer daß Leute nicht immer Alles wissen bzw. verstehen. :rolleyes:
@rentex
Nicht unbedingt. Z.B. finde ich ne ASIC-Power von 230W, wie von Igor gemutmaßt, als äußerst optimistisch. Dafür bräuchte es kein neues PCB-Layout und per se ne neue ATX-Spezifikation
nordic_pegasus
2020-08-03, 20:15:43
Ich sehe bisher keine gescheiten Leaks der finalen Karten, nope.
wie soll man einen gescheiten Leak erkennen. Wenn man bereits unter NDA steht und mehr weiß als der Rest?
Linmoum
2020-08-03, 20:18:44
Wahrscheinlich daran, woher die Leaks so kommen. Gerade, wenn man mit größeren Schritten auf einen Launch zugeht, kommt vieles wie Folien fast immer über VCZ. Das ist in der Hinsicht bisher aber noch sehr ruhig.
Zossel
2020-08-03, 20:48:15
Schauen wir mal was 8nm@Samsung taugt.
Kriegsgeier
2020-08-03, 21:05:33
Vielleicht kommt Ampere nicht in September sondern Mitte November?
Die unter NDA wissen es bereits :-)
[MK2]Mythos
2020-08-03, 21:17:00
Vielleicht kommt Ampere nicht in September sondern Mitte November?
Die unter NDA wissen es bereits :-)
Und vielleicht heißt Ampere auch nicht Ampere, sondern Manuel Neuer?
Slipknot79
2020-08-03, 21:43:15
wie soll man einen gescheiten Leak erkennen. Wenn man bereits unter NDA steht und mehr weiß als der Rest?
Ganz einfach, alle die unter NDA stehen zitieren in ihren News die twatter-Leaker etc. Weil die NDAs wissen, dass das was auf twatter rausgeballert wird, wohl den Infos, die unter NDA stehen, moar oder weniger entspricht. :wink:
Nuvirus
2020-08-03, 22:42:04
Ich denke auch das Leute die schon deutlich mehr wissen über die realistischen Leaks sprechen bzw entsprechend ihre Gedanken dazu äußern wenn es teils richtig ist
Ich sehe es schon kommen dank Nvidia wird dann mein System doch ne Full Custom Wakü bekommen, wenn's leise Customs gegeben hätte deutlich unter 300W Verbrauch wäre ich wahrscheinlich bei bei Luftkühlung geblieben aber so will ja nicht allzuviel Leistung verschenken
Sardaukar.nsn
2020-08-03, 23:02:18
...Ich sehe es schon kommen dank Nvidia wird dann mein System doch ne Full Custom Wakü bekommen, wenn's leise Customs gegeben hätte deutlich unter 300W Verbrauch wäre ich wahrscheinlich bei bei Luftkühlung geblieben aber so will ja nicht allzuviel Leistung verschenken
Nur zu die Wakü-Welt ist spannend und der Bastelspaß enorm.
Nuvirus
2020-08-03, 23:15:34
Ja ich denk auch dass ich es eh Just 4 Fun mach wird halt teuer mit einigen Radis und LED Lüftern im Phanteks 719 Case
rentex
2020-08-04, 18:07:00
Wenn man sich den Thread von Anfang bis Ende ansieht, dann hat die Geheimhaltung seitens NV, sehr gut geklappt. Statt Ampere nach Pascal, kam Turing um die Ecke und die Preise waren deutlich höher als Anfangs für möglich gehalten.
Daher kommt es wohl ganz anders als vermutet.
BlacKi
2020-08-04, 18:12:42
Mythos;12382207']Und vielleicht heißt Ampere auch nicht Ampere, sondern Manuel Neuer?
Wenn man sich den Thread von Anfang bis Ende ansieht, dann hat die Geheimhaltung seitens NV, sehr gut geklappt. Statt Ampere nach Pascal, kam Turing um die Ecke und die Preise waren deutlich höher als Anfangs für möglich gehalten.
Daher kommt es wohl ganz anders als vermutet.
damals hat igor auch gemeint, das ampere vor der tür stehen würde. ich glaub das war ende 2017.
wer weiß...
rentex
2020-08-04, 18:25:09
Hier 13.11.2017
Ampere ist fix, Q2 2018 auch. Die Ersten fangen ja jetzt schon mit der BoM an. ;)
Immerhin liegt ja Mitte Februar noch Chinese New Year an, da muss das meiste bis dahin stehen. Hinterher geht da erst mal eion paar Wochen nix. Die ersten Karten würde ich deshalb auch nicht kaufen, da dann meist erst mal ungelernte Ameisen an den Fließbändern rumalbern.
davidzo
2020-08-04, 19:53:40
Eben, ich würde gar nichts auf Igors Gerede über Multiple Power Domains und 350Watt karten geben.
Er hat Ahnung von GPUs, Märkten und IT-Firmen, aber Power-Elektronik und Kühlerdesign sind einfach nicht seine Fachgebiete, das merkt man in den Details seiner Ausführungen.
Und wie Rentex richtig bemerkt hat ist nvidia extrem gut darin Dicht zu halten und eventuell ja sogar falsche Gerüchte zu streuen / befeuern. Ich glaube nicht dass sie so in Zugzwang sind und mit dieser Generation alle ATX Spezifikationen und Gehäusekühlungen sprengen müssen. Da hätten die eher noch ein neues Stepping gemacht um die Strom/Takt/Effizienzkurve zu optimieren anstatt jetzt bequem sogar vor Navi zu launchen.
Das habe ich hier vor 20 Seiten bei der Kühleranalyse schon gesagt.
Die dort abgebildete Karte hatte 1x8Pin und ist angeblich eine Vanilla 3080 wozu auch die Dimensionierung und Auslegung des Kühlers passt.
Ich sage eine Leistungsaufnahme zwischen 200 und 225Watt vorraus. Die 3080ti dann bis 250Watt und die 3090 unterhalb von 300Watt.
Bin dann aber von HOT und Co heftig zurückgewiesen worden, Igor hätte in jedem Fall sichere quellen dafür in der Industrie. Ich werde beim Launch beizeiten daran erinnern!
hlynska
2020-08-05, 06:17:06
Er hat Ahnung von GPUs, Märkten und IT-Firmen, aber Power-Elektronik und Kühlerdesign sind einfach nicht seine Fachgebiete, das merkt man in den Details seiner Ausführungen.Weißt Du eigentlich, womit der sein Geld verdient? Bestimmt nicht mit der Webseite oder den paar YT-Videos. Und die Grafikkarten-Reviews samt Teardown sind auch sehr solide. Dazu kommen seine ganzen Grundlagenartikel zur Spannungsversorgung und den Messungen. Das alles mit keine Ahnung zu umschreiben ist schon arg sportlich.
Hast Du Dir mal die Platine aus dem letzten Video genau angesehen? Also allein die Umrisse? Wenn das nicht aus einem Blueprint stammt, fresse ich einen Besen. Dass er das alles etwas ungenauer drüberzeichnet, ist nur logisch, denn der NDA-Teufel lauert überall. Ich habe im Artikel auch etwas zu NVDD und MSVDD gelesen, die er so nett als Gedönsspannung bezeichnet. So viel Phantasie kann man gar nicht haben, um sich sowas mal eben so auszudenken. :D
Er schrieb ja auch, ich glaube es war bereits schon im Juni, über mögliche MCM-Designs bei RDNA3. Und gestern las ich das Ganze dann als "Leak" von David auf WCCFTECH. Zufälle gibts...
Edit:
Habe noch mal bissl rumgegoogelt. Bis auf die Bezeichnung, lag er bei Turing eigentlich immer richtig, bei Vega sowieso. Angeblich gabs auch 2018 schon Evaluation-Boards, die in Gigabytes Serversparte noch als Ampere liefen. :D
Fragman
2020-08-05, 08:17:35
Er schrieb ja auch, ich glaube es war bereits schon im Juni, über mögliche MCM-Designs bei RDNA3.
War das nicht AMD selbst die darüber mal spekuliert haben in einem Interview vor 2 Jahren oder so?
hlynska
2020-08-05, 08:28:37
Igor schrieb von 2015 und Sonoma mit Raja, könnte sogar hinkommen.
Thunder99
2020-08-05, 08:51:25
Und dann kam kurzfristige Änderungen die alle überrascht hatten. Aus Ampere wurde Turing und aus jetzt könnte auch noch die eine oder andere Überraschung kommen :wink:
rentex
2020-08-05, 09:16:13
Weißt Du eigentlich, womit der sein Geld verdient? Bestimmt nicht mit der Webseite oder den paar YT-Videos. Und die Grafikkarten-Reviews samt Teardown sind auch sehr solide. Dazu kommen seine ganzen Grundlagenartikel zur Spannungsversorgung und den Messungen. Das alles mit keine Ahnung zu umschreiben ist schon arg sportlich.
Hast Du Dir mal die Platine aus dem letzten Video genau angesehen? Also allein die Umrisse? Wenn das nicht aus einem Blueprint stammt, fresse ich einen Besen. Dass er das alles etwas ungenauer drüberzeichnet, ist nur logisch, denn der NDA-Teufel lauert überall. Ich habe im Artikel auch etwas zu NVDD und MSVDD gelesen, die er so nett als Gedönsspannung bezeichnet. So viel Phantasie kann man gar nicht haben, um sich sowas mal eben so auszudenken. :D
Er schrieb ja auch, ich glaube es war bereits schon im Juni, über mögliche MCM-Designs bei RDNA3. Und gestern las ich das Ganze dann als "Leak" von David auf WCCFTECH. Zufälle gibts...
Edit:
Habe noch mal bissl rumgegoogelt. Bis auf die Bezeichnung, lag er bei Turing eigentlich immer richtig, bei Vega sowieso. Angeblich gabs auch 2018 schon Evaluation-Boards, die in Gigabytes Serversparte noch als Ampere liefen. :D
Dem Igor kann man durchaus glauben schenken. Er umreisst es halt wegen den NDAs halt phantasievoll.
WedgeAntilles
2020-08-05, 09:28:51
Das habe ich hier vor 20 Seiten bei der Kühleranalyse schon gesagt.
Die dort abgebildete Karte hatte 1x8Pin und ist angeblich eine Vanilla 3080 wozu auch die Dimensionierung und Auslegung des Kühlers passt.
Ich sage eine Leistungsaufnahme zwischen 200 und 225Watt vorraus. Die 3080ti dann bis 250Watt und die 3090 unterhalb von 300Watt.
Bin dann aber von HOT und Co heftig zurückgewiesen worden, Igor hätte in jedem Fall sichere quellen dafür in der Industrie. Ich werde beim Launch beizeiten daran erinnern!
Genau für solche Fälle ist dieser Thread perfekt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=601446
Du bist dir sicher, was die Leistungsaufnahme angeht? Super :)
Poste einfach kurz deine Prognose und in Zukunft kann jeder leicht sehen wie nahe an der Realität du bist.
(Ich hoffe es nimmt mir keiner übel, meinen eigenen Thread zu bewerben.)
Leonidas
2020-08-05, 11:11:30
Wann kommt eigentliche die obligatorische NV-Meldung: "Es kommt demnächst nichts neues!"
Bei Turing hatte man noch Anfang Juni 2018 selbiges gesagt. Vorstellung erster Produkte dann Mitte August 2018:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-juni-2018
https://www.3dcenter.org/news/nvidia-stellt-mit-quadro-rtx-5000-6000-8000-die-ersten-teile-der-turing-generation-vor
dildo4u
2020-08-05, 11:33:46
Sieht so aus als ob auch 300€ Karten in 2020 kommen.
https://videocardz.com/newz/report-nvidia-geforce-rtx-2070-super-has-been-discontinued
BlacKi
2020-08-05, 11:46:08
Eben, ich würde gar nichts auf Igors Gerede über Multiple Power Domains und 350Watt karten geben.
Er hat Ahnung von GPUs, Märkten und IT-Firmen, aber Power-Elektronik und Kühlerdesign sind einfach nicht seine Fachgebiete, das merkt man in den Details seiner Ausführungen.
Und wie Rentex richtig bemerkt hat ist nvidia extrem gut darin Dicht zu halten und eventuell ja sogar falsche Gerüchte zu streuen / befeuern. Ich glaube nicht dass sie so in Zugzwang sind und mit dieser Generation alle ATX Spezifikationen und Gehäusekühlungen sprengen müssen. Da hätten die eher noch ein neues Stepping gemacht um die Strom/Takt/Effizienzkurve zu optimieren anstatt jetzt bequem sogar vor Navi zu launchen.
Das habe ich hier vor 20 Seiten bei der Kühleranalyse schon gesagt.
Die dort abgebildete Karte hatte 1x8Pin und ist angeblich eine Vanilla 3080 wozu auch die Dimensionierung und Auslegung des Kühlers passt.
Ich sage eine Leistungsaufnahme zwischen 200 und 225Watt vorraus. Die 3080ti dann bis 250Watt und die 3090 unterhalb von 300Watt.
Bin dann aber von HOT und Co heftig zurückgewiesen worden, Igor hätte in jedem Fall sichere quellen dafür in der Industrie. Ich werde beim Launch beizeiten daran erinnern!
igor war berater was kühllösungen angeht. gigabyte hat ihn regelmäßig angagiert um die entwickelten kühler auf herz und nieren zu prüfen und vorschläge zur verbesserung zu machen. er hatte dort auch einen enormen zugang zu unterlagen und kennt das vorgehen von NV und das der AIB. von dort stammen auch seine kontakte.
der punkt ist aber nicht was er früher gemacht hat. sondern was nv heute macht. igor ist kein fester partner mehr von AIB fertigern. er ist, seit dem THW.de geschlossen wurde zu seinem eigenen website betreiber geworden und hat angestellte. nv versucht nun alle seine leakquellen zu stopfen, genau wie damals 2017 mit ampere könnte es sein, das solche quellen absichtlich falsch gestreut werden um leaker zu enttarnen und verwirrung zu stiften.
ich glaub auch nicht so wirklich an 350w für die top karte. an dem neuen stecker könnte was dran sein, muss IMHO aber nicht unbedingt sein. die geleakten pcb sind unterschiedlich. es gibt auch mehrere kühllösungen. ich kann mir beim besten willen nicht vorstellen das man mit 350w auf dieses kleine pcb mit V ausschnitt geht. das was igor da gezeichnet hat, wird so nicht kommen. er hat die teile nicht eingezeichnet die für den videoausgang zuständig sind.
Dural
2020-08-05, 12:34:50
Der hat kein NDA und auch keine guten quellen... merkt man ziemlich eindeutig.
Sah man bei der spannungversorgung bei den ampere karten ziemlich gut. Zuerst hiess es bei ihm alles wie gehabt und nichts besonderes, danach ist er immer wie mehr zurück gerudert bis zu sehr aufwändig und sogar seperater spw für tensor.
Wenn irgend wo was auftaucht verkauft er es immer so als er das schon lange wusste, und mehrfach kam es dann nicht mal so.
Fragman
2020-08-05, 13:00:54
Am Ende ist Igor Teil der Disinformationskampagne. :D
Wir werdens ja bald wissen.
BlacKi
2020-08-05, 13:02:41
Am Ende ist Igor Teil der Disinformationskampagne. :D
Wir werdens ja bald wissen.
jo, wissentlich oder unwisstenlich bestimmt.
ChaosTM
2020-08-05, 13:02:45
Igor ist ein NV/AMD Doppelagent mit eigener Agenda - nix gutes führt der Gute im Schild. ;)
hlynska
2020-08-05, 14:57:23
Der hat kein NDA und auch keine guten quellen... merkt man ziemlich eindeutig.
Sah man bei der spannungversorgung bei den ampere karten ziemlich gut. Zuerst hiess es bei ihm alles wie gehabt und nichts besonderes, danach ist er immer wie mehr zurück gerudert bis zu sehr aufwändig und sogar seperater spw für tensor.
Wenn irgend wo was auftaucht verkauft er es immer so als er das schon lange wusste, und mehrfach kam es dann nicht mal so.Also ich sehe zwischen dem Verfeinern und Nachlegen bzw dem Herumschwenken durch manche Dauertwitterer schon einen gewissen qualitativen Unterschied. Mir scheint das alles nämlich durchaus schlüssig, zumal es immer wieder auf dem alten aufsetzt und neue Details freigibt.
Also wenn sich das mit NVDD und MSVDD wirklich als wahr herausstellt - und das hatte bisher kein anderer auf Twitter - dann sollte sich hier der eine oder andere vielleicht mal überlegen, sich bei ihm entschuldigen. Denn das kann man ohne Schaltungsdetails nicht wissen. Falls nicht, dann darf weiter gebasht werden. Es ist meist nur so, dass hinterher keiner was gesagt haben will :D
ShinyMcShine
2020-08-05, 15:02:27
Sieht so aus als ob auch 300€ Karten in 2020 kommen.
https://videocardz.com/newz/report-nvidia-geforce-rtx-2070-super-has-been-discontinued
2070 Super ist eine 300€-Karte? :confused:
BlacKi
2020-08-05, 15:44:12
2070 Super ist eine 300€-Karte? :confused:
wenn die 3060 kommt, dann vermutlich ja.
Rampage 2
2020-08-06, 18:16:19
Der Produktlaunch (kaufbare Produkte) beginnt doch immer ungefähr 1 Monat nach der Produktvorstellung, nicht wahr? Ist mit September 2020 jetzt der Produktlaunch gemeint oder die Produktvorstellung?
R2
Edgecrusher86
2020-08-06, 18:28:30
Ja, grob zwei bis vier Wochen nach der Vorstellung waren es in der Regel die letzten Jahre.
Früher hatte man beides ja auch gerne kombiniert gehabt - schade, dass dem nicht mehr so ist.
Zu Ampere kann wohl nur hier spekuliert werden. "Worst Case" wäre dann wohl ein Hardlaunch Ende September oder Anfang Oktober und zuvor nur die Vorstellung.
Mal sehen, was die Tage und Wochen noch so an Infos einprasseln wird.
Cubitus
2020-08-06, 18:49:47
Man kann die Karten während der Vorstellung kaufen und bekommt diese dann 3-4 Wochen später, so war es bei der 2080RTX TI...
natürlich nur wenn die Server halten :freak:
https://i.ytimg.com/vi/8QfSzgV1q5g/maxresdefault.jpg
wenn die 3060 kommt, dann vermutlich ja.
Wenn Ampere gut ist, dann geht ne 2070s zwischen 380 und 450€ von der Rampe - sprich das Ding ist ruckzuck ausverkauft. Ähnlich verhält es sich mit den größeren Brüdern: 2080s 550€, ne Ti für 800€ und schwupp sind die Lager leer.
Außerdem glaube ich, dass ne 3060 ne 2070(s) nur unter RT zersägt!
reaperrr
2020-08-06, 19:59:02
Außerdem glaube ich, dass ne 3060 ne 2070(s) nur unter RT zersägt!
Mit der 2060S/2070 wird sie es wohl aufnehmen können, wenn der (vermutlich) kleinere Speicher nicht limitiert (hat doch bestimmt wieder nur 192bit/6GB).
Aber wenn die 3060 kein Salvage-GA104 ist, wird sie mit der 2070S auf jeden Fall außerhalb RT Probleme haben. Nicht nur weil die nochmal 256 ALUs mehr hat, sondern man merkt an der 2070S schon, dass mehr GPCs in einigen Situationen was bringen, die 2070S ist teils deutlicher vor der 2070 als die 2080S vor der 2070S. Und GA106 wird sicher wie TU106 nur 3 GPCs haben.
Mit der 2060S/2070 wird sie es wohl aufnehmen können, wenn der (vermutlich) kleinere Speicher nicht limitiert (hat doch bestimmt wieder nur 192bit/6GB).
Aber wenn die 3060 kein Salvage-GA104 ist, wird sie mit der 2070S auf jeden Fall außerhalb RT Probleme haben. Nicht nur weil die nochmal 256 ALUs mehr hat, sondern man merkt an der 2070S schon, dass mehr GPCs in einigen Situationen was bringen, die 2070S ist teils deutlicher vor der 2070 als die 2080S vor der 2070S. Und GA106 wird sicher wie TU106 nur 3 GPCs haben.
Ich bin mir relativ sicher, dass ne 3060 mit 8GB an einem 256-Bit SI hängt!
Edgecrusher86
2020-08-06, 20:45:13
8GB sind nach der 2060S Pflicht für eine 3060 - 6GB/192-bit macht dann eher bei 3050(Ti) Sinn.
8GB sind nach der 2060S Pflicht für eine 3060 - 6GB/192-bit macht dann eher bei 3050(Ti) Sinn.
Sehe ich genauso, wobei letzteres kein RT umstürzen wird. Bei einer 3050 wird es sich wahrscheinlich um eine umgelabelte Turing-Variante aka 1660 irgendetwas handeln.
BlacKi
2020-08-06, 21:18:32
und natürlich wird eine 3060 schneller als eine 2070 oder 2060s. zwischen 2060s und 2070s liegen auch nicht mal mehr 20%. am preispunkt könnte man kritik ausüben. vl sollte ich meine aussage in richtung 300-350€ korrigieren. aber nicht an der performance.
=Floi=
2020-08-07, 03:08:45
Sieht so aus als ob auch 300€ Karten in 2020 kommen.
Das wird dann die 3020 ohne Ti für 300€ ;D
Leonidas
2020-08-07, 11:15:15
Eure Hoffnungen wurden eventuell erhört: Laut Fernost-Gerüchten wird es eine 20-GB-Karte geben.
Wenn hiermit nicht eine Quadro oder eine 3090 mit kleinerem Interface gemeint ist, dann ist das eine 3080 - wahrscheinlich mit Wahlmöglichkeit von 10 oder 20 GB Speicher. Insofern NV das bei der 3080 macht, wäre dies auch bei anderen Karten möglich (3090 mit 12/24 GB, 3070Ti mit 8/16 GB):
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode
Adam D.
2020-08-07, 11:33:37
Eure Hoffnungen wurden eventuell erhört: Laut Fernost-Gerüchten wird es eine 20-GB-Karte geben.
Wenn hiermit nicht eine Quadro oder eine 3090 mit kleinerem Interface gemeint ist, dann ist das eine 3080 - wahrscheinlich mit Wahlmöglichkeit von 10 oder 20 GB Speicher. Insofern NV das bei der 3080 macht, wäre dies auch bei anderen Karten möglich (3090 mit 12/24 GB, 3070Ti mit 8/16 GB):
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode
Dann müsste es ja aber auch eine 3080 Ti/3090 mit 24GB geben, was wiederum der Titan ein wichtiges Alleinstellungsmerkmal nehmen würde.
ChaosTM
2020-08-07, 11:36:30
Wieso? 48gb wäre ein nettes Alleinstellungsmerkmal. 🤪
Add : darf dann auch 4k+ kosten 😀
ShinyMcShine
2020-08-07, 11:40:28
Eure Hoffnungen wurden eventuell erhört: Laut Fernost-Gerüchten wird es eine 20-GB-Karte geben.
Wenn hiermit nicht eine Quadro oder eine 3090 mit kleinerem Interface gemeint ist, dann ist das eine 3080 - wahrscheinlich mit Wahlmöglichkeit von 10 oder 20 GB Speicher. Insofern NV das bei der 3080 macht, wäre dies auch bei anderen Karten möglich (3090 mit 12/24 GB, 3070Ti mit 8/16 GB):
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode
Ich wiederhole mich gern: Eine 3070Ti mit 16GB ist sowas von gekauft, auch im Hinblick auf meine Reverb G2. ;D
Zergra
2020-08-07, 11:40:48
Wer sagt den überhaupt das es noch eine Titan geben wird? Sieht für mich eher danach aus als wenn diese durch die 3090 ersetzt wird.
Leonidas
2020-08-07, 11:41:58
Dann müsste es ja aber auch eine 3080 Ti/3090 mit 24GB geben, was wiederum der Titan ein wichtiges Alleinstellungsmerkmal nehmen würde.
Fast .... und dann gab es da diesen bis jetzt überlesenen Tweet von KK:
PG133, 48G
Quelle: https://twitter.com/kopite7kimi/status/1288866454217998339
fondness
2020-08-07, 11:42:54
Solange 20Gb nicht irgendwelche schrägen Bestückungsvarianten bedeutet, die sich dann wieder irgendwie nachteilig auswirken.
Leonidas
2020-08-07, 11:46:23
Das hoffen wir alle. Aber ich denke nicht, das NV diesen Weg geht. Kostet Performance, was man sich in diesem Segment nicht leisten kann, wenn Big Navi halbwegs potent ist.
ChaosTM
2020-08-07, 11:46:28
@shiny
Kommt drauf an wie schnell sie wird. Hab momentan eine 1080ti und ich hatte gerne zumindest +70/80%. 3080 Scheint da das Minimum zu werden.
Ex3cut3r
2020-08-07, 11:54:09
3070 Ti mit 16GB und der Leistung einer 2080 Ti + besseres RT. Für 500-600€. Shut Up and Take my Money. ;D
ChaosTM
2020-08-07, 12:01:32
Ich Kauf die Karte, die unter FS2020 die beste Leistung bringt. Rtrt ist dort nicht so wichtig. Gerade mal fürs Cockpit
Ex3cut3r
2020-08-07, 12:04:18
Ich Kauf die Karte, die unter FS2020 die beste Leistung bringt. Rtrt ist dort nicht so wichtig. Gerade mal fürs Cockpit
Ist man im Flight Simulator momentan sowieso nicht hoffnungslos im CPU Limit?
ChaosTM
2020-08-07, 12:04:41
Wahrscheinlich .
ShinyMcShine
2020-08-07, 12:09:55
3070 Ti mit 16GB und der Leistung einer 2080 Ti + besseres RT. Für 500-600€. Shut Up and Take my Money. ;D
Exactly!
mironicus
2020-08-07, 12:15:38
Schade, dass gerade ein Titel wie Horizon Zero Down kein DLSS bietet, selbst eine RTX 2080 Ti schafft da nur 40 FPS in 4K (PCGH). Da wird auch eine 3090 keine 60 FPS bringen.
Ex3cut3r
2020-08-07, 12:22:59
Einfach die Wolken auf High stellen, bringt 15 FPS. ;D
Und der visuelle Unterschied ist nicht vorhanden.
ChaosTM
2020-08-07, 12:26:06
Schade, dass gerade ein Titel wie Horizon Zero Down kein DLSS bietet, selbst eine RTX 2080 Ti schafft da nur 40 FPS in 4K (PCGH). Da wird auch eine 3090 keine 60 FPS bringen.
Das geht sich leicht aus. Geht DLSS überhaupt bei Open World Games? Bisher macht es nur bei Control wirklich Sinn.
Ravenhearth
2020-08-07, 12:31:04
Das geht sich leicht aus. Geht DLSS überhaupt bei Open World Games? Bisher macht es nur bei Control wirklich Sinn.
Warum sollte das nicht gehen? Death Stranding hat auch DLSS, ist sogar die gleiche Engine wie Horizon
Daredevil
2020-08-07, 12:31:05
Schade, dass gerade ein Titel wie Horizon Zero Down kein DLSS bietet, selbst eine RTX 2080 Ti schafft da nur 40 FPS in 4K (PCGH). Da wird auch eine 3090 keine 60 FPS bringen.
Wrong.
PCGH bildet hier den Worst Case dar, wichtig ist unter anderem auch der Best Case und der Avg Case.
Min. Max. Avg matters und keins von jedem Faktor einzeln.
MasterElwood
2020-08-07, 13:09:24
Ist man im Flight Simulator momentan sowieso nicht hoffnungslos im CPU Limit?
Beim FS 2020 kann man SEHR viele Parameter regeln. Sollte also kein Problem sein sich die CPU-Heavy Parameter schön zu regeln.
Plus: is ja alles noch DX11...
Thunderburne
2020-08-07, 13:33:31
Das geht sich leicht aus. Geht DLSS überhaupt bei Open World Games? Bisher macht es nur bei Control wirklich Sinn.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Raytracing-DLSS-1352739/
Zitat:
Cyberpunk 2077: Bestätigte Features
In der Pressemeldung wird bestätigt, dass Cyberpunk 2077 auf dem PC Direct X 12 Ultimate als Basis nutzt, um Echtzeit-Raytracing darzustellen. Als Features sind bereits jetzt RT Diffuse Illumination, RT Ambient Occlusion und RT-Schatten integriert. Dazu kommt Nvidias KI-Kantenglättung DLSS in der aktuellen Ausbaustufe 2.0. Noch vor dem Release im November will CD Projekt Red auch noch RT Reflections einbauen. Die Umsetzung von Ray-traced Spiegelungen scheinen den größten Aufwand zu bereiten.
ChaosTM
2020-08-07, 14:05:24
Sehr gut.
Die Frage wird halt sein wie schnell man gute Ergebnisse sieht bzw. wie lange das System zum lernen braucht. Bei Control hats ca ein Jahr gedauert.. und eine neue Version von DLSS
@MasterElwood ich mach mir eh keine Sorgen. Zur Not wird ein 3950er hineingepappt falls der was nützt ;)
Gouvernator
2020-08-07, 21:44:18
Wenn 24Gb VRAM gleich 2000€ kosten sollen dann wartet man lieber Big Navi ab. Ich sehe irgendwie nicht ein, das eine 8K taugliche Grafikkarte genau so viel kostet wie ein 8K TV.
MiamiNice
2020-08-07, 21:53:23
Wenn man mit 2k überhaupt hinkommt. Ich tippe mal locker auf 3k für eine eine 3090 mit 24Gb.
Thunderburne
2020-08-07, 21:58:49
Sehr gut.
Die Frage wird halt sein wie schnell man gute Ergebnisse sieht bzw. wie lange das System zum lernen braucht. Bei Control hats ca ein Jahr gedauert.. und eine neue Version von DLSS
@MasterElwood ich mach mir eh keine Sorgen. Zur Not wird ein 3950er hineingepappt falls der was nützt ;)
Das Postbooten Spiel Death Stranding ist ja auch ein Openworld und wurde für die DLSS 2.0 Implementierung vom Start weg gelobt in den Tests.
Die Frage wird halt sein wie schnell man gute Ergebnisse sieht bzw. wie lange das System zum lernen brauch
DLSS 2.0 braucht für neue Spiele kein Training mehr.
Auch ist nie die Frage "wie lange" sondern "wieviel Resourcen muss ich draufwerfen". In der Cloud kannst du in sehr kurzer Zeit die notwendigen Resourcen draufwerfen und dein Budget vernichten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.