Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
bbott
2022-08-15, 16:25:28
Whataboutism ist nie ein gutes Argument.
Immerhin bieten obige Dinge noch Nutzwert. Der Jet bringt Leute von A nach B. Grafikkarten stellen Spiele dar, an denen die Leute Spaß haben.
Aber Miningfarmen die auf dem Höhepunkt weltweit kumuliert den Leistungsbedarf einer ganzen Volkswirtschaft darstellen: das ist ein neues Level an Energie und Ressourcenverschwendung. Und es wird kein Nutzwert generiert. Es ist einfach nur Verbrennung.
Auch Crypto bring einen Mehrwert, mehr als privat Jets und ein paar fps mehr. Wenn du den Mehrwert nicht erkennst,... z.B. das selbst extrem konservative Banken Block Chain einführen.
Mangel76
2022-08-15, 16:52:01
Auch Crypto bring einen Mehrwert, mehr als privat Jets und ein paar fps mehr. Wenn du den Mehrwert nicht erkennst,... z.B. das selbst extrem konservative Banken Block Chain einführen.
Blockchain ist nicht gleich Crypto! Klar gibt es sinnvolle Anwendungen von BC. Aber Crypto sind im Moment nur Spekulationsobjekt! Sinnvolle praktischen Anwendungen abseits von Drogen- und Waffenkäufen gibt es nicht.
OgrEGT
2022-08-15, 16:52:37
Ach, wieder im Mining Thread gelandet. Ich geh mal den Lovelace Karten Thread suchen....
Ich such mit :freak:
Mangel76
2022-08-15, 16:57:43
Bei Cryptos steht die dafür eingesetzte Energie ala Strom dahinter.
So ein Blödsinn. Die eingesetzte Energie ist halt nicht mehr für sinnvollere Dinge nutzbar, die ist quasi weg, auch wenn es physikalisch nicht korrekt ist. Der Wert ist in keiner Weise abhängig von der eingesetzten Energie. Und nein, nur weil der Bäcker darauf spekuliert, die Brötchen mit Gewinn zu verkaufen, ist das Brötchen noch kein reines Spekulationsobjekt. Hier hast du einen Gegenwert für die aufgebrachte Energie - das reale Brötchen. Cryptos sind höchstens virtuelle Güter, die höchst volatil sind und man sich nur selten ein Brötchen dafür kaufen kann.
Und jetzt reicht es auch wieder BTT
DavChrFen
2022-08-15, 17:17:39
Kann man über die angebliche Wiederaufnahme der 3080(Ti?)-Produktion irgendwas schlussfolgern? Wie lange dauert es von der "Wiederaufnahme der Produktion" bis das in den Regalen liegt? Delay der 4080er? (Was ich weniger glaube)
Gipsel
2022-08-15, 17:25:04
Ich empfehle, beim Thema zu bleiben. Mining ist hier eher Offtopic.
Danke.
iamthebear
2022-08-16, 02:20:09
Kann man über die angebliche Wiederaufnahme der 3080(Ti?)-Produktion irgendwas schlussfolgern? Wie lange dauert es von der "Wiederaufnahme der Produktion" bis das in den Regalen liegt? Delay der 4080er? (Was ich weniger glaube)
Also an ein Delay aus technischen Gründen glaube ich nicht. Nvidia verzögert nur weil sie den Altbestand noch loswerden sollen.
Warum ausgerechnet GA102 wieder neu aufgelegt werden soll kann ich nicht sagen. Falls es stimmt so sehe ich hier eher nur eine Umschichtung z.B. wenn man statt 2 3050/60 lieber eine 3080 10GB produziert und sich den VRAM für die nächste Generation spart.
Platos
2022-08-16, 10:58:29
Ist nur ein Gerücht. Ich glaube nicht, dass das stimmt.
basix
2022-08-16, 12:00:16
Wer sagt, das GA102 neu aufgelegt wird? Nvidia und die Partner werden entsprechende Chips an Lager haben. Und die will man brauchen. Allenfalls scheint sich die 12GB Version einfach mehr zu lohnen als die 10GB Version (höhere Verkaufspreise). Insbesondere, da die 3080 Ti einen deutlich höheren MSRP hat.
Mehr Absatz. Lohnen wird sich das nicht, aber man bekommt den Mist einfach schneller weg mit 12GB. NV wird einfach die Chips alle mit 12GB ausliefern ab einem gewissen Zeitpunkt, so verkauft man die übriggebliebenen 102er einfach schneller ab, auch wenn das NV ein paar $ kostet.
BlacKi
2022-08-16, 12:54:57
Wer sagt, das GA102 neu aufgelegt wird? Nvidia und die Partner werden entsprechende Chips an Lager haben. Und die will man brauchen. Allenfalls scheint sich die 12GB Version einfach mehr zu lohnen als die 10GB Version (höhere Verkaufspreise). Insbesondere, da die 3080 Ti einen deutlich höheren MSRP hat.inwiefern? die haben doch beide dieselben verkaufspreise. nur die 10gb version ist billiger herzustellen. ich glaube tatsächlich, das man hier zu wenig karten im angebot hat. möglicherweiße nimmt man die 10gb komplett raus, und man hat rabatt bekommen auf die chip packete, weshalb sich die produktion wieder rentiert und deshalb wieder gestartet wird.
Nein, Blödsinn, die wollen abverkaufen, das ist das wichtigste, ansonsten müssten sie halt GA102 wegschmeißen. Da sind die paar $ für die Speichermodule furzegal.
Thunderburne
2022-08-16, 14:14:36
Nein, Blödsinn, die wollen abverkaufen, das ist das wichtigste, ansonsten müssten sie halt GA102 wegschmeißen. Da sind die paar $ für die Speichermodule furzegal.
Jup die scheinen noch weiter den Preis der alten Gen zu Justieren um Platz für die 4000ner zu machen!
Gruss
https://wccftech.com/nvidia-amd-gpu-prices-expected-to-fall-further-by-end-of-august-green-team-to-issue-aggressive-cuts-to-clear-inventory/
Rampage 2
2022-08-16, 18:06:49
Allenfalls scheint sich die 12GB Version einfach mehr zu lohnen als die 10GB Version (höhere Verkaufspreise).
Wer ausser Fliegengitter-Spieler (1080p) oder totalen Idioten will denn Mitte 2022 noch den ekelhaft kastrierten 10GB-Schrott kaufen? :ulol:
R2
Gott1337
2022-08-16, 18:10:43
Wer ausser Fliegengitter-Spieler (1080p) oder totalen Idioten will denn Mitte 2022 noch den ekelhaft kastrierten 10GB-Schrott kaufen? :ulol:
R2
Leute die ihr Kürzel unter jeden Post schreiben obwohl links daneben der Name steht ;D
Rampage 2
2022-08-16, 18:28:43
Leute die ihr Kürzel unter jeden Post schreiben obwohl links daneben der Name steht ;D
Ich habe eine 12GB-Karte (3080 Ti) und spiele in 1440p:P
Gott1337
2022-08-16, 19:23:16
Ich habe eine 12GB-Karte (3080 Ti) und spiele in 1440p:P
Ja war mir schon klar das du nicht etwas hast worüber du dich beschwerst :D
Ich bin aber der Meinung das, wenn DirectStorage mit SamplerFeedback ordentlich in Spielen umgesetzt wird, die 10GB noch lange halten sollten. und das sag ich als 3090 Besitzer. (hab ich nur für Content Creation gekauft)
Mit 10GB wirste bei der neuen Generation immer Schwierigkeiten haben, auch in 1440p. Haste ja teilweise jetzt schon. 12GB ist wirklich das absolute Minimum.
Thomas Gräf
2022-08-16, 19:37:39
Ja war mir schon klar das du nicht etwas hast worüber du dich beschwerst :D
Ich bin aber der Meinung das, wenn DirectStorage mit SamplerFeedback ordentlich in Spielen umgesetzt wird, die 10GB noch lange halten sollten. und das sag ich als 3090 Besitzer. (hab ich nur für Content Creation gekauft)
:freak: ;D :biggrin: :wink: wer das glaubt. ;)
Neurosphere
2022-08-16, 19:45:31
Ich hatte mit meiner 3080 jetzt in 4K auch schon teilweise Probleme mit stotterern (Rift Breaker), ist für 4K einfach nicht mehr Zeitgemäß.
Gott1337
2022-08-16, 22:04:06
:freak: ;D :biggrin: :wink: wer das glaubt. ;)
hat nix mit glauben zu tun, durch Sampler Feedback spart man gut und gerne über 50% an Texturenspeicher.
Gott1337
2022-08-16, 22:07:18
Mit 10GB wirste bei der neuen Generation immer Schwierigkeiten haben, auch in 1440p. Haste ja teilweise jetzt schon. 12GB ist wirklich das absolute Minimum.
du musst genau lesen, ich sagte WENN SF gut umgesetzt werden würde... ist das denn alles so schwer zu verstehen?
r3ptil3
2022-08-16, 22:23:41
Ich hatte mit meiner 3080 jetzt in 4K auch schon teilweise Probleme mit stotterern (Rift Breaker), ist für 4K einfach nicht mehr Zeitgemäß.
Hat m.M.n. nichts damit zu tun, dass die Karte zu alt ist. Für 4k war die RTX 3080 (auch die RTX 3090) in zahlreichen Titeln schon 2020 zu langsam.
Das wird sich mit der RTX 4090 TI, RTX 5090 TI etc. auch nicht ändern. Aktuelle Grafik-Prestige-Titel werden auch in Zukunft gerade knapp flüssig laufen mit der aktuellsten Generation.
Ein paar Beispiele für 2020:
- Watch Dogs Legion
- Control
- Cyberpunk
- Flight Simulator 2020
- Assasins Cred Valhalla
und und und...
Alles Titel die gerade mal zwischen 30-60 FPS laufen auf 4k mit einer RTX 3090. Viel zu wenig für Hardware die 1500 Euro+ gekostet hat.
Thomas Gräf
2022-08-16, 22:55:35
hat nix mit glauben zu tun, durch Sampler Feedback spart man gut und gerne über 50% an Texturenspeicher.
Hätte anders zitieren sollen...
Du hast technisch gesehen Recht keine Diskussion.
Die Glaubensfrage war das fett gedruckte. Aber juut. ;)
iamthebear
2022-08-16, 23:03:23
Also ich denke spätestens mit einer 4090 wird mehr als genug Performance für 4K da sein, selbst wenn die Spiele noch ein bisschen nachlegen.
Wenn man auf heftige RT Effekte verzichten kann wird auch eine 4080 noch relativ gut laufen.
Man muss ja auch nicht zwangsweise immer alles auf Ultra stellen. 4K auf High sieht auch noch hübsch aus und wenn man bei Spielen wie Cyberpunk auf 4K noch den DLSS Quality Modus einwirft wird die Welt auch nicht zusammen brechen.
Früher war es ganz normal, dass man selbst mit High End Grafikkarten nicht mit 4K spielen konnte. Crysis hat 10 Jahre gebraucht, um unter 4K flüssig spielbar zu werden. Bei Release war selbst mit einer 8800 GTX unter 1680x1050 Very High nur 15fps drin.
Gott1337
2022-08-17, 19:59:20
Also ich denke spätestens mit einer 4090 wird mehr als genug Performance für 4K da sein, selbst wenn die Spiele noch ein bisschen nachlegen.
Wenn man auf heftige RT Effekte verzichten kann wird auch eine 4080 noch relativ gut laufen.
Man muss ja auch nicht zwangsweise immer alles auf Ultra stellen. 4K auf High sieht auch noch hübsch aus und wenn man bei Spielen wie Cyberpunk auf 4K noch den DLSS Quality Modus einwirft wird die Welt auch nicht zusammen brechen.
Früher war es ganz normal, dass man selbst mit High End Grafikkarten nicht mit 4K spielen konnte. Crysis hat 10 Jahre gebraucht, um unter 4K flüssig spielbar zu werden. Bei Release war selbst mit einer 8800 GTX unter 1680x1050 Very High nur 15fps drin.
Danke, einfach nur danke.
Meridian12
2022-08-17, 21:09:36
Also ich denke spätestens mit einer 4090 wird mehr als genug Performance für 4K da sein, selbst wenn die Spiele noch ein bisschen nachlegen.
Wenn man auf heftige RT Effekte verzichten kann wird auch eine 4080 noch relativ gut laufen.
Man muss ja auch nicht zwangsweise immer alles auf Ultra stellen. 4K auf High sieht auch noch hübsch aus und wenn man bei Spielen wie Cyberpunk auf 4K noch den DLSS Quality Modus einwirft wird die Welt auch nicht zusammen brechen.
Habe all meine Spiele auf einer 1080ti in 4k gezockt mit einem haswell i4770 :D. Für mich wunderbar spielbar. Horizon Zero Dawn zB war perfekt spielbar.
Jedoch kommt es auf die Ansprüche an. Mir reichen 40fps. Schatten auf mittel, mehr fällt mir eh nicht wirklich auf im Spiel.Zocke schliesslich und bewundere nicht stundenlang die Schattendetails.
Für viele ist das ruckeln ohne Ende. Manche sind bei 120 fps erst glücklich.
Dann noch Raytracing reinhauen und irgendwelchen anderen Mist und schon ist die 4090ti zu langsam für diese Leute.:freak:
Und sollte die 5090ti dann endlich alles auf max Details und Raytracing mit 120 fps schaffen, dann ist plötzlich 8k Pflicht und die 5090ti ist natürlich viel zu langsam und alles ruckelt bei 40 fps und schon beginn das Spiel von vorne :D
DrFreaK666
2022-08-17, 21:54:55
Dann spielst du falsch. Du musst regelmäßig screenshotten und 6-Fach reinzoomen!!
crux2005
2022-08-17, 22:28:32
Ich hatte mit meiner 3080 jetzt in 4K auch schon teilweise Probleme mit stotterern (Rift Breaker), ist für 4K einfach nicht mehr Zeitgemäß.
Wahrscheinlich wegen RT oder dein Prozessor ist zu langsam. Hatte mit 2080 in 1440p genug FPS (glaube so 80+) und keine Ruckler (außer beim Speichern, aber das ist normal).
BlacKi
2022-08-22, 21:06:03
wo bleiben die ganzen leaks?
iamthebear
2022-08-22, 22:03:49
Gute Frage. Es ist verdächtig ruhig.
Vielleicht haben auch alle AIBs ihren Mitarbeitern die Daumenschrauben angesetzt ja nichts auszuplaudern, da sie alle auf einem Berg Ampere sitzen der vorher noch weg muss.
r3ptil3
2022-08-22, 22:06:35
Ist nicht nur hier ruhig, auch zu Zen4 gibt's seit Tagen absolut nichts.
Bei Nvidia ist aber noch viel mehr offen: Von einer Vorstellung im September, bis hin zu einer Vorstellung erst im November/Dezember für das Top-Modell.
BlacKi
2022-08-22, 22:11:08
es gab ja die leakschwemme mit ansage und nu?
r3ptil3
2022-08-22, 22:28:24
Als nächstes gibt's dann vielleicht erste Leaks der neuen Kühler der Boardpartner, wobei hier einige bestimmt auch auf das bestehende Kühldesign der RTX 3090 Ti zurückgreifen.
ASUS wird aber bestimmt eine neues luftgekühltes Modell vorstellen.
Linmoum
2022-08-22, 22:35:17
Ist nicht nur hier ruhig, auch zu Zen4 gibt's seit Tagen absolut nichts.Die CPUs kommen aber von AMD direkt ohne Umwege über EVGA, KFA, Zotac und wie sie alle heißen. Da hast du nur die MB-Hersteller die primär zwecks BIOS/Firmware testen (müssen). Daher sind Leaks bei CPUs generell deutlich einfacher einzuschränken, sofern man will.
Dass von den AiB bei Ada bisher weiterhin noch gar nichts kommt, zeigt eigentlich nur mehr, dass das wirklich frühestens im Oktober was wird. Je länger Leaks ausbleiben, umso später wird es. Vielleicht tatsächlich sogar erst Richtung November.
iamthebear
2022-08-22, 23:12:56
War das nicht bisher schon aktueller Stand? Vorstellung Ende September, Launch im Oktober mit der Option auf Verspätung?
Also meine Vermutung:
.) Bis Mitte September hört man von offizieller Seite gar nichts und man will so schnell es geht die Lager leeren
.) Um den 15.9. wenn die ETH Mining Blase platzt wird man kräftig die Werbetrommel anrühren um zu verhindern, dass sich die Leute günstige gebrauchte Miningkarten holen.
.) Im Oktober wird dann gelaunched in homöopatischen Dosen, die in 5 Minuten alle weg sind und es kommt nichts nach obwohl die Karten sich alle im Lager stapeln
.) Dann spielt man das Spiel "günstiger UVP, real aber Mondpreise" einmal weiter bis AMD launched und dann entscheidet man was man preismäßig wirklich macht.
r3ptil3
2022-08-22, 23:20:14
Der Hinweis mit dem Mining könnte in der Tat einen ausschlaggebender Faktor sein bei der Wahl der Vorstellung.
Wobei man auch beachten muss, dass die Miner, welche den gewaltigen Umsatz für Nvidia generiert haben, jetzt sowieso keine Grafikkarten mehr kaufen.
Wer jetzt wieder zum Schluss gemelkt werden möchte, sind die ahnungslosen Gamer, welche 2 Jahre lang nichts von den GPUs hatten und jetzt wieder am kürzeren stehen, sofern Bedarf für eine GPU da ist.
Bei der künstlichen Verknappung gebe ich dir auch recht @iamthebear.
Wird wohl die effektivste Methode sein, wenn der umsatzkräftigste Markt sich einfach in Luft auflöst und man wieder auf die Gamer angewiesen ist.
iamthebear
2022-08-23, 00:17:33
Gekauft wird von den Minern bereits seit Monaten keine neue GPU mehr. Deswegen sind die Preise auch wieder einigermaßen normal.
Das Problem ist der Ethereum Proof of Stake Merge, der falls die Hashrate gleich bleibt um den 15.9. angesetzt ist.
Danach ist es mit dem GPU Mining zumindest für Ethereum auf einen Schlag komplett vorbei ganz unabhängig davon wo die Kurse gerade stehen.
Das wird voraussichtlich dazu führen, dass all die gamingtauglichen Miningkarten sich alle gleichzeitig auf den Weg in den Gebrauchtmarkt machen teilweise auf Ebay, möglicherweise jedoch auch als Refurbed Programm. Das ist der Grund, warum alle AIBs so panisch sind.
RoNsOn Xs
2022-08-23, 07:32:22
Zumindest sind die Preise von den Händlern immer noch zu stabil. Momentan hat weder Alternate, noch der mindstar GPUs im (Sonder-)Angebot.
Grendizer
2022-08-23, 07:37:45
Letzte Tage war eine 3090 TI im Mindstar für 1299 zu haben. Also ich finde schon das das nicht schlecht war. Aber die Preise werden vermutlich noch weiter nachgeben.
Korvaun
2022-08-23, 07:55:44
Letzte Tage war eine 3090 TI im Mindstar für 1299 zu haben. Also ich finde schon das das nicht schlecht war. Aber die Preise werden vermutlich noch weiter nachgeben.
Wenn man die kommende Generation ausblendet ist das sicher ein akzeptabler Preis, aber 4080 wird die 3090Ti ja locker überholen? Glaube kaum das die 4080 1299 UVP kosten wird. Schätze in der jetzigen Situation werden das wohl 899-999 für die 4080, und 700+ für die 4070.
Ich denke im Sept/Okt werden wir da noch Preise unter 1000 für die 3090ti sehen, das wäre dann gut für Leute die nicht unbedingt die neueste Gen. brauchen/wollen...
Leonidas
2022-08-23, 08:09:54
Kopite7kimi
https://twitter.com/kopite7kimi/status/1561942397680254976
Let's make some updates.
RTX 4080
PG136/139-SKU360
AD103-300-A1
9728FP32
16GB 23Gbps GDDR6X
total card power 340W
horn 12
2022-08-23, 09:07:29
Kommt es mir aber nur so vor, oder setzt NV die RTX 4080 doch tiefer an als zunächst gewollt um doch eine halbwegs effiziente(re) Karte zu Releasen.
Früher war von 400 bis 420 Watt die Rede, jetzt soll es nur mehr 340 Total Power sein,- und dann vielleicht geringer getaktet oder aber mittels Bios Switch doch die 400+ Watt realisierbar?
Linmoum
2022-08-23, 09:14:02
War die 4080 vor kurzem laut ihm nicht erst nur noch 320W? Jetzt schon wieder 340W?
Naja, nächsten Monat ist er vor der Verkündung dann wieder bei 420W. ;D
dildo4u
2022-08-23, 09:21:40
Das könnte zur neuen Startegie gehören die Top Karten waren bei GA 102 viel zu nahe beieinandern, die 4090 hat diesmal 60% mher Cores damit machen Preise wie 800 vs 1500€ deutlich mher sinn.
Hat man ja gesehen was mit dem Preis der 3090 Ti passiert ist die rechfertigt keine Aufpreise über 50%.
robbitop
2022-08-23, 09:39:17
Jetzt noch last gen kaufen, der in wenigen Monaten doppelt plattgewalzt wird? Muss man schon mögen. :)
Das "in wenigen Monaten" hörte man schon zum Launch der RTX 3090 Ti im März. Damals wurde sogar kurzfristig gemunkelt, dass Ada im Juli starten wird (LOL). Woher kommt dieser unkaputtbare Optimismus, dass bald(tm) alles geiler und günstiger wird? Das muss Selbstschutz sein. :D Merke: Optimismus ist Mangel an Information. Alt, aber wahr.
MfG
Raff
Meridian12
2022-08-23, 11:16:36
Die 3090ti war doch einfach nur eine Karte, um die "GeldspielekeineRollehauptsacheschneller" Leute nochmal zu melken.
Wahrscheinlich sind bei erscheinen der 3090ti mehr Leute von einer 3090 zur 3090ti gewechselt, als AMD Besitzer oder 3080ti und darunter Leute.
Platos
2022-08-23, 12:08:41
Jetzt noch last gen kaufen, der in wenigen Monaten doppelt plattgewalzt wird? Muss man schon mögen. :)
Bisher war es meistens so, dass bei Launch die Gebrauchtkarte von der letzten Gen ein deutlich besseres P/L bot, wie die neue (die es natürlich nciht gebraucht gibt).
Durchs Mining könnten durchaus viele interessante Angebote kommen.
Und ausserdem wissen doch viele nicht, dass es eine neue Gen gibt bald oder können ein (jetzt) gutes Angebot dann nicht sitzen lassen.
Die 3090ti war doch einfach nur eine Karte, um die "GeldspielekeineRollehauptsacheschneller" Leute nochmal zu melken.
Wahrscheinlich sind bei erscheinen der 3090ti mehr Leute von einer 3090 zur 3090ti gewechselt, als AMD Besitzer oder 3080ti und darunter Leute.
Ja, z.B der ober dir, ist so ein Kandidat ;D
robbitop
2022-08-23, 12:14:14
Für 1300€ wird man garantiert ein massiv stärkeres Lovelace SKU bekommen als die 3090ti.
Linmoum
2022-08-23, 12:16:21
Aber womöglich nicht mehr in diesem Jahr. ;)
Ja, z.B der ober dir, ist so ein Kandidat ;D
Jein. Ich bin von keiner Karte bzw. vier Wochen mit Übergangsschrott auf die Ti gewechselt, die leider viel teurer war, als ich erhofft hatte. :freak: Meine 3090 war da schon lange verkauft. Ich hoffe, dass das ansonsten nicht viele gemacht haben, weil das purer Nonsens ist.
MfG
Raff
dargo
2022-08-23, 12:34:54
Kopite7kimi
https://twitter.com/kopite7kimi/status/1561942397680254976
Let's make some updates.
RTX 4080
PG136/139-SKU360
AD103-300-A1
9728FP32
16GB 23Gbps GDDR6X
total card power 340W
Der Typ wird doch immer mehr zu einer Lachnummer. Ich hätte noch 350W im Angebot, passt so schön zu einer 3090. :ulol:
robbitop
2022-08-23, 12:58:44
Aber womöglich nicht mehr in diesem Jahr. ;)
Selbst wenn der top dog etwas teurer ist - dann wird er dank Faktor 2 an Performance ein massiv besseres P/L haben. Jetzt noch vierstellig in Ampere zu stecken ist ein kurzer Spaß.
Für 600-700 eur mag ein GA102 noch halbwegs okay sein aber darüber ist er auf kurzer Sicht obsolet.
Grendizer
2022-08-23, 13:04:38
Der Typ wird doch immer mehr zu einer Lachnummer. Ich hätte noch 350W im Angebot, passt so schön zu einer 3090. :ulol:
Das sind vermutlich die Daten auf die er Zugriff hat. Wenn NVidia noch in der Findung der finalen Daten sind wird es unterschiedlichste Test Muster oder Biose geben. Mit der Intensität der Updates scheint für mich noch viel Spielraum drin zu sein und im Endeffekt noch gar nichts richtig festzustehen
Leonidas
2022-08-23, 14:10:19
Der Typ wird doch immer mehr zu einer Lachnummer.
Wie erschlägt man eine Leak-Quelle, der man nicht habhaft werden kann? Man füttert sie mit zu vielen Daten, worauf sich der Leaker lächerlich macht - 5 Spec-Entwürfe für eine Karte.
Kopite hätte dabei bleiben sollen, allein die Chip-Specs rauszuhauen. Die ändern sich nicht.
PS: Will sagen: Seine Infos sind solide. Nur sind SKU-Entwürfe halt nur Entwürfe - während Chip-Specs eine Sache sind, die man nicht mal täglich wechselt.
Thunder99
2022-08-23, 14:22:33
97xx Shader, wie viel SMs sind das nochmal? Wäre schade eine noch weiter kastrierte GPU zu haben. Naja, irgendwie muss noch die 4080Ti Platz haben oder die kommt via AD102 auf 400W
Ne 4080 Super vielleicht, die Ti wird sehr sicher auf AD102-Basis kommen.
Platos
2022-08-23, 15:23:12
Für 1300€ wird man garantiert ein massiv stärkeres Lovelace SKU bekommen als die 3090ti.
Es gibt übrigens auch noch andere Karten als der Top-Dog... Natürlich wird das nie auf den Top-Dog zutreffen, ist ja logisch. Es geht natürlich um Karten, die die gleiche Leistung bieten (also nicht den namentlichen Nachfolger).
Jein. Ich bin von keiner Karte bzw. vier Wochen mit Übergangsschrott auf die Ti gewechselt, die leider viel teurer war, als ich erhofft hatte. :freak: Meine 3090 war da schon lange verkauft. Ich hoffe, dass das ansonsten nicht viele gemacht haben, weil das purer Nonsens ist.
MfG
Raff
Ja die 4 Wochen machen natürlich den Unterschied :D
Aber ja, hoffe ich auch.
r3ptil3
2022-08-23, 15:35:14
Meine 3090 war da schon lange verkauft. Ich hoffe, dass das ansonsten nicht viele gemacht haben, weil das purer Nonsens ist.
MfG
Raff
Du hast einfach zu viel von der Anti-Hardware-Upgrade-Gilde hier lesen müssen.
Wenn ich aktuell eine preislich akzeptable ASUS RTX Strix 3090 White fände, würde ich auch zugreifen.
Genau so würde ich diese dann im Oktober/November auch verkaufen, wenn eine RTX 4090 für 900-1300$ kommt und wirklich überzeugt.
Kaufen, verkaufen... neue Hardware testen - ist doch wunderbar.
robbitop
2022-08-23, 15:48:40
Es ist halt ökonomischer Nonsense. Wer aber aus Spaß am Hobby gern Geld verbrennt: warum nicht.
r3ptil3
2022-08-23, 17:31:53
Vor einer Stunde gepostet:
https://i.ibb.co/6Jny6C9/4090.png
Gipsel
2022-08-23, 17:47:39
Mal etwas aufgeräumt. Können wir bitte beim Thema bleiben?
Danke.
Slipknot79
2022-08-23, 18:01:45
Vor einer Stunde gepostet:
https://i.ibb.co/6Jny6C9/4090.png
Die Stückzahl wird nicht angegeben, also werden nur 4 Stk produziert?
5000EUR Preise incomming. (y) :redface:
iamthebear
2022-08-23, 20:14:22
Wenn du damit die vorletzte Spalte meinst:
Google Translate meint "Capacity/H"
Das hört sich für mich eher nicht so sehr nach gesamter Stückzahl an als dem Produktionstakt am Fließband. Da wird man zu dem Zeitpunkt vielleicht noch keine Daten gehabt haben.
Wenn im Oktober wirklich gelaunched werden soll dann muss ohnehin spätestens jetzt schon produziert werden denn die Karten brauchen auch einige Zeit bis sie weltweit verteilt sind und etwas vorproduzieren muss man ja auch.
Slipknot79
2022-08-23, 22:13:46
Yo google lens hat mir auch Kapazität/H rausgeballert.
Ist auch die Frage, warum 4x 4090 angeben wird? 4 Fertigungsstraßen?
prinz_valium_2
2022-08-23, 22:14:16
Also Mitte/Ende Oktober die 4090 frühstens.
dargo
2022-08-24, 09:08:18
Wie erschlägt man eine Leak-Quelle, der man nicht habhaft werden kann? Man füttert sie mit zu vielen Daten, worauf sich der Leaker lächerlich macht - 5 Spec-Entwürfe für eine Karte.
Kopite hätte dabei bleiben sollen, allein die Chip-Specs rauszuhauen. Die ändern sich nicht.
Selbst diese musste er korrigieren (SM). ;) Ich nehms mit Humor. Ist doch eh nichts anderes als die ganze Meute bei Laune zu halten mit dem Ziel einen gewissen Hype aufzubauen.
Leonidas
2022-08-24, 11:50:40
97xx Shader, wie viel SMs sind das nochmal?
76 SM, wo der AD103 84 SM hat. Erscheint mir nicht wirklich sinnig.
Rampage 2
2022-08-24, 16:00:17
76 SM, wo der AD103 84 SM hat. Erscheint mir nicht wirklich sinnig.
Vielleicht, um grösseren Abstand zu einer (spaeter) kommenden "4080 Super" (voller AD103 mit 84 SMs) zu schaffen? 76 zu 84 SMs sind ziemlich genau 10% (genauer: 10,5%) Unterschied. Dazu dann schnellerer Speicher (24Gbps GDDR6X oder 28Gbps GDDR7) für die "Super" - analog zur 3070 Ti und damaligen 2080 Super. Zur Krönung noch höherer Boost-Clock und TDP-Limit. Fertig. :smile:
R2
Thunder99
2022-08-24, 19:02:32
Ist irgendwie schlüssig, einzig dann der noch größere Abstand zur 4090 passt nicht
The_Invisible
2022-08-24, 19:32:54
Abstand zwischen 4080 und 4090 wär da wirklich groß. Wenns so ist, vielleicht will Nvidia da doch mehr zwischen Gaming- und Creator-Karte unterscheiden (auch monetär). Die 3090er waren aus Nvidia Sicht ja auch nicht die Top-Gaming Karten, das war quasi immer die 3080/Ti.
Aber lange ist es ja nicht mehr hin, wird ein spannender Herbst, freu mich schon auf die ganzen Reviews, wird ein Marathon :D
dargo
2022-08-24, 19:46:23
76 SM, wo der AD103 84 SM hat. Erscheint mir nicht wirklich sinnig.
Warum nicht? Die vollen 84 SM will man sich womöglich für später kommende 4080TI freihalten.
AffenJack
2022-08-24, 20:55:55
Warum nicht? Die vollen 84 SM will man sich womöglich für später kommende 4080TI freihalten.
Angesichts dessen, dass die 4090 mit vollen 384 Bit kommen soll, würde man da die 4080Ti mit AD102 und 320 Bit erwarten. Nvidia hat eigentlich immer Salvagechips mit beschnittenem Interface gebracht. Aber gut, man könnte auch ne Super bringen mit 84 SM. Das wäre nur ne künstliche Beschneidung, um den Abstand zur 4090 zu vergrößern und damit auch den Preisabstand stärker zu rechtfertigen. Könnte mir da 750$ zu 1500$ wieder vorstellen.
Aber wenn man bedenkt, wie oft sich die angeblichen Daten der verschiedenen Chips "geändert" haben würde ich auf solche Leaks für die 4080 und 4070 gar nix geben. Das sind noch 5 Monate hin bis Release.
Troyan
2022-08-24, 22:34:56
Lovelace kommt dann wohl zur GTC:
“I look forward to next month’s GTC conference, where we will share new advances in RTX, as well as breakthroughs in AI and the metaverse, the next evolution of the internet. Join us,” he said.
Revenue is expected to be $5.90 billion, plus or minus 2%. Gaming and Professional Visualization revenue are expected to decline sequentially, as OEMs and channel partners reduce inventory levels to align with current levels of demand and prepare for NVIDIA’s new product generation.
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023
Troyan
2022-08-25, 09:18:33
GTC es ist:
We’ll get through this over the next few months and go into next year with our new architecture. I look forward to telling you more about it at GTC next month.
I look forward to next month’s GTC conference, where we will share new advances of RTX reinventing 3D graphics and gaming.
Aus dem Conference Call zu den Q2 Zahlen.
horn 12
2022-08-25, 09:24:04
Ja, Vorstellung um den 19 bis 23.ten September und nach 3 bis 4 Wochen Verfügbarkeit.
Nix wirklich Neues.
The_Invisible
2022-08-25, 17:00:56
Warum nicht? Die vollen 84 SM will man sich womöglich für später kommende 4080TI freihalten.
Wär schon ziemlich lahmarschig für eine Ti ; )
=Floi=
2022-08-26, 11:56:00
zitat
76 SM, wo der AD103 84 SM hat. Erscheint mir nicht wirklich sinnig.
Dafür dürfte erheblich mehr takt anliegen.
OgrEGT
2022-08-27, 10:58:56
https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-rtx-4060-get-first-rumored-performance-claims
According to the leaker, RTX 4060 Ti is pulling up to 270-280W of power while reaching 8600 score in 3DMark Time Extreme, which is actually better than RTX 3080.
The RTX 4060 non-Ti gets around 6000 points in the same test while consuming 230 to 240W.
Boost 2,6 bzw. 2,7GHz
Troyan
2022-08-27, 11:01:46
Der Typ ist seit Juli auf Twitter und die Angaben machen noch weniger Sinn als von kopite7kimi. Dachte wir hätten gelernt, nicht jeden Quatsch von Twitter als bare Münze zu nehmen...
robbitop
2022-08-27, 11:30:10
Kann mir vorstellen, dass die Informationen nicht mit Substanz sind. In 2022 soll nur die 4090 kommen. Also mindestns 4 Monate kein anderes Modell mehr. In der Regel kommt auch erstmal die 080 und die 070. Jetzt schon spezifische Informationen (Takt, TDP usw) über eine 060ti sku haben zu wollen die dann repräsentativ für das Serienmodell sind, das fast 1/2 Jahr weg ist: sehr unwahrscheinlich.
Sunrise
2022-08-27, 12:29:09
Kann mir vorstellen, dass die Informationen nicht mit Substanz sind. In 2022 soll nur die 4090 kommen. Also mindestns 4 Monate kein anderes Modell mehr. In der Regel kommt auch erstmal die 080 und die 070. Jetzt schon spezifische Informationen (Takt, TDP usw) über eine 060ti sku haben zu wollen die dann repräsentativ für das Serienmodell sind, das fast 1/2 Jahr weg ist: sehr unwahrscheinlich.
Es gäbe einen guten Grund sie doch früher zu bringen:
Sie wollen den großen GA102-Die ebenso der 3080 mit ähnlicher Performance dieser SKU ersetzen. Das Ziel muss sein, dass GA102 nach der Vorstellung der neuen Generation schnellstmöglich EOL geht, bzw. ich kann mir vorstellen, dass das bereits geschehen ist.
robbitop
2022-08-27, 12:34:56
bisherige Gerüchte sind sich aber einig, dass es nur der top dog in 2022 wird.
Sunrise
2022-08-27, 12:39:14
bisherige Gerüchte sind sich aber einig, dass es nur der top dog in 2022 wird.
I know… ich zähle nur mal auf, was denkbar wäre. Der GA102 ist nach der 4090-Vorstellung bis auf die 3080 eben obsolet.
Neurosphere
2022-08-27, 12:41:49
Die Werte zur Leistungsaufnahme passen halt überhaupt nicht zusammen.
Es kann nicht sein das eine 4060ti bis zu 280 Watt verbraten soll und eine 4080 "nur" 320 Watt.
Die 280 Watt sind da eindeutig zu hoch für 8600 Punkte. Die 4080 soll auf 15.000 kommen.
200 Watt wären da deutlich realistischer. Bei 280 Watt müsste eine 4080 die 400 Watt Grenze knacken damit es wieder hin kommt mit den Punkten.
dildo4u
2022-08-27, 12:43:14
Es ist viel zu Früh für Werte einer 4060 und AMD bringt anbeglich nur 6nm Modelle in dem Bereich kein Grund die 4060 auszufahren.
Linmoum
2022-08-27, 12:44:20
Es ist viel zu Früh für Werte einer 4060 und AMD bringt anbeglich nur 6nm Modelle in dem Bereich kein Grund die 4060 auszufahren.Der Prozess per se sagt nichts darüber aus, wie gut oder schlecht Produkte sind oder werden.
ChaosTM
2022-08-27, 13:05:06
https://www.youtube.com/watch?v=ATS-fyQZuwA
Ja, er ist ein Dampfplauderer aber manchmal liegt er richtig.
OgrEGT
2022-08-27, 14:05:10
Der Typ ist seit Juli auf Twitter und die Angaben machen noch weniger Sinn als von kopite7kimi. Dachte wir hätten gelernt, nicht jeden Quatsch von Twitter als bare Münze zu nehmen...
Das ist nur ganz neutral das was geleakt wurde... auf welcher Basis der Leak beruht who knows... wenn nicht nur theoretischer Natur dann ggf ein Vorserienboard... würde auch nicht unbedingt von einem Serienboard ausgehen da es dafür zu früh sein könnte... zudem wäre es extrem unwahrscheinlich dass ein Leaker jetzt schon ein funktionierendes BIOS und Treiber hätte...
iamthebear
2022-08-27, 17:00:24
Das wird dasselbe wie bei kopite sein:
Nvidia baut die ersten Testboards, die bis zu 280W ausgelegt sind.
Danach wird das Testboard mit den verschiedensten Takt/Psannung/Temperaturkurven getestet und man legt eine Kurve fest wie hoch die Spannung bei welchem Takt sein muss.
Dann testet man wie hoch die Performance bei welchen TDP Limits ist und entscheidet sich für einen Wert, der Kosten/Nutzen mäßig am sinnvollsten erscheint.
Die 240W der 4060 sind vermutlich also das obere Ende von dem was getestet wird.
Leaks passieren dann wenn irgendjemand in der Lieferkette ein Dokument mit den technischen Daten des Testboards in die Finger bekommt.
Linmoum
2022-08-27, 17:12:42
Vergleicht doch einfach den angeblichen TSE der 4080 mit dem der angeblichen 4060(Ti) inkl. jeweiliger TGP. Das ist einfach völliger Quatsch, warum man auf sowas überhaupt eingeht.
OgrEGT
2022-08-27, 19:49:51
Vergleicht doch einfach den angeblichen TSE der 4080 mit dem der angeblichen 4060(Ti) inkl. jeweiliger TGP. Das ist einfach völliger Quatsch, warum man auf sowas überhaupt eingeht.
Ist ja nicht so als dass es gerade einen Überfluss an Infos/Leaks gäbe... zudem wissen wir auch nicht worauf die vermeintlichen TSE Scores der 4080 und 4090 beruhen... welchen Stand die jeweiligen Boards, BIOSe und Treiber hatten...
iamthebear
2022-08-27, 20:03:16
Vergleicht doch einfach den angeblichen TSE der 4080 mit dem der angeblichen 4060(Ti) inkl. jeweiliger TGP. Das ist einfach völliger Quatsch, warum man auf sowas überhaupt eingeht.
Die TDP ist wie gesagt zu hoch da TDP des Testboards aber bei den TSE Werten sehe ich keinen Widerspruch.
1 Ada SM hat die Performance von ca. 1.4 Ampere SMs, was auch anhand der Taktraten von 2.7 vs. 1.9GHz nicht so abwegig klingt. Speicherbandbreite word durch den L2 kompensiert.
Also:
60SM 4070 = 11K TSE = 84SM 3090 Ti
48SM 4060 Ti = 8600 TSE = 68SM 3080
32SM 4060 = 6000 TSE = 0.9x 46SM 3070.
Die 4060 scheint auf den ersten Blick zu spießen allerdings hat GA104 eine höhere Performance/SM, da mehr TMU/ROPs pro SM vorhanden sind. Das merkt man anhan der großen Lücke zwischen 3060 und 3060 Ti bzw. der bezogen auf die SM Anzahl kleinen Lücke zwischen 3070 und 3080.
Leonidas
2022-08-28, 11:15:18
Es ist viel zu Früh für Werte einer 4060
Nicht gänzlich undenkbar. NV hat schon den AD106 daliegen, da jener für einen Mobile-Einsatz ab Anfang 2023 vorbereitet werden muß. Daher kein Akt, damit auch schon ein paar Desktop-Tests zu machen. Nur final ist daran natürlich noch lange nix.
Alle Performance-"Werte" bisher sind ziemlich sicher BS. Ich erinnere immer an Igors Anmerkung, dass der Treiber erst zum Launch verfügbar wird. Alles vorher kann die Funktion testen, aber sagt rein gar nichts über die Performance aus. Die tatsächliche Leistung dürfte von NV gehütet werden wie ein Staatsgeheimnis und das ist extrem unwahrscheinlich, dass hier was leaken kann. Alle Einschätzungen zur Performance sind nichts weiter als Einschätzungen. Das kann zufällig richtig liegen, muss aber nicht.
iamthebear
2022-08-28, 13:59:55
1.) Die Treiber die die AIBs bekommen sind so beschnitten, dass damit keine Spiele funktionieren.
3DMark ist jedoch afaik freigegeben. Mit irgendetwas müssen die AIBs ja testen, ob ihr Produkt ordnungsgemäß funktioniert.
Das ist auch der Grund, warum ständig TSE Werte leaken.
2.) Diese Beschränkungen haben nur die AIBs. Die Entwicklungsteams von Nvidia haben natürlich Treiber, die mit allen Spielen funktionieren. Die müssen ja schließlich auch testen, ob die Architektur mit allen Spielen zu Recht kommt bzw. wie die Performance skaliert.
Allerdings ist die Wahrscheinlichkeit, dass etwas von Nvidia selbst leaked deutlich geringer, da die Anzahl der Leute geringer ist und somit auch das Risiko erwischt zu werden. Vage Angaben zu Taktraten, Performance, WGP Anzahl etc. sind hier nicht so heikel. Das wissen in der Regel mehrere Leute.
Neurosphere
2022-08-28, 23:18:05
https://pbs.twimg.com/media/FbPmU_IUsAAmwy6?format=png&name=small
Hier sieht man nochmal sehr schön das die Watt- und 3D-Mark Scoreangaben, die gerade so florieren, nicht ganz stimmig sind.
iamthebear
2022-08-29, 01:50:25
4080 => Hier wurden anscheinend die 15K von den 420W Testboards mit dem 320W Release TDP vermischt => Dürfte um die 10% niedriger liegen
4060/Ti: Werden mit dieser TDP sicher nicht released. Hier kann man bei der Performance/Watt um die 20% drauf rechnen.
Und schon haben wir eine ähnliche Kurve wie bei Ampere.
Thunder99
2022-08-30, 23:29:10
Tippe ein AD104 10GB gibt es, nur nicht als 4070 sondern eher als 4060(Ti). Wäre ja absurd dann so eine große Lücke zu lassen im VRAM zwischen 70er und 80er
iamthebear
2022-08-30, 23:44:27
Da hast du zwar Recht aber Nvidia hat in letzter Zeit noch viel schlimmere Dinge gemacht, die keinen Sinn ergeben. Ich sage nur RTX 2060 12GB.
Gott1337
2022-08-31, 04:49:21
Da hast du zwar Recht aber Nvidia hat in letzter Zeit noch viel schlimmere Dinge gemacht, die keinen Sinn ergeben. Ich sage nur RTX 2060 12GB.
was ist daran schlimm? ist ja nur eine zusätzliche Option :freak:
Auch wenn sie vllt keinen Sinn ergibt, wurde dadurch kein Produkt ersetzt oder einem Kunden geschadet.
Für content creator war die sogar ganz geil wenn sie keine 3060 bekommen haben.
dazu kommt das sie fast so schnell ist wie eine 6600, hat dafür aber 4GB mehr und kann RT und DLSS (RT ist für CCs sehr wichtig)
iamthebear
2022-08-31, 08:43:15
Das schon aber bei der 3070 gab es nur 8GB
Wenn die Karte mit halber Shaderpower 50% mehr Speicher haben darf dann stört es mich auch nicht dass eine 40% schnellere 4080 60% mehr VRAM als eine 4070 haben darf. Wenn die 50$ weniger VRAM bedeuten, dass der Preis auch um 50$ sinkt (z.B. 450$ statt 500$) dann nur zu.
Thunder99
2022-08-31, 10:21:08
Mit AD ist die Möglichkeit geschaffen bessere GPU VRAM Modelle zu releasen die sinnvoller abgestuft sind.
Nvidia ist zwar alles zuzutrauen, aber habe dennoch Zuversicht dass es diesmal besser wird.
Seit Pascal sind die 04er Karten bei 8GB geblieben. Es wird Zeit, dies zu erhöhen da der Bedarf da ist.
Die 3060 wäre mit 6GB definitiv unterversorgt gewesen. Das hat auch Nvidia erkannt und damals nur mit 12GB released. Die 3070 war halt done right aus Sicht von Nvidia wie auch Anfangs 3080 mit 10GB.
BlacKi
2022-08-31, 10:40:48
wo bleiben die vielen AIB leaks?
davidzo
2022-09-01, 12:20:13
LOL ;D https://www.computerbase.de/2022-09/exportverbot-nach-china-us-regierung-legt-nvidia-a100-und-h100-an-die-kette/
US Regierung zu Nvidia: Wir verbieten euch A100, H100, DGX und vergleichbare Karten und Systeme mit China zu handeln. Denkt nicht mal dran denen zu helfen solche oder ähnliche Supercomputerkomponenten zu bauen.
Nvidia: OMG, aber unser DGX kommt doch zum großen Teil aus china. Da sind die OEMs für diese Server (Foxconn, Quanta). Boards und packaging von H100 machen wir auch in China - Die helfen uns unsere Supercomputer zu bauen, nicht umgekehrt.
US Regierung: *rauschen* *knistern* Tuut Tuut Tuut
Troyan
2022-09-01, 13:52:30
Ja, wird lustig. Die Systeme werden dort gebaut bzw. man erhält Zusatzprodukte, darf aber die Systeme nicht dort verkaufen. Fehlt nur noch, dass China ein Export-Stopp für die Auslieferungen verhängt.
Gipsel
2022-09-01, 16:47:34
Mal als generelle Warnung:
Das PoWi-Forum ist woanders.
Troyan
2022-09-01, 19:26:22
Bild, Bild, Bild: https://videocardz.com/newz/alleged-geforce-rtx-4080-graphics-card-has-been-pictured
Gott1337
2022-09-01, 19:32:02
LOL ;D https://www.computerbase.de/2022-09/exportverbot-nach-china-us-regierung-legt-nvidia-a100-und-h100-an-die-kette/
US Regierung zu Nvidia: Wir verbieten euch A100, H100, DGX und vergleichbare Karten und Systeme mit China zu handeln. Denkt nicht mal dran denen zu helfen solche oder ähnliche Supercomputerkomponenten zu bauen.
Nvidia: OMG, aber unser DGX kommt doch zum großen Teil aus china. Da sind die OEMs für diese Server (Foxconn, Quanta). Boards und packaging von H100 machen wir auch in China - Die helfen uns unsere Supercomputer zu bauen, nicht umgekehrt.
US Regierung: *rauschen* *knistern* Tuut Tuut Tuut
Die Chinesen helfen Nvidia? Nvidia bezahlt die dafür, die low-tech Arbeit zu verrichten... die können das auch ohne Probleme woanders machen lassen, ist aber teurer.
Wenn wir China weiter das Geld und die Technik in den Rachen werfen, gibts in 10 Jahren den nächsten Krieg, und der wird nicht so klein sein wie der jetzige.
Thunderburne
2022-09-01, 19:56:05
https://videocardz.com/newz/alleged-geforce-rtx-4080-graphics-card-has-been-pictured
Linmoum
2022-09-01, 20:05:27
Zwei Beiträge über deinem.
Thunderburne
2022-09-01, 20:31:23
Zwei Beiträge über deinem.
Ich sollte häufiger die Lesebrille aufsetzen!
Neurosphere
2022-09-01, 20:38:01
Link zur Quelle:
https://twitter.com/KittyYYuko/status/1565377778089725952/photo/1
Linmoum
2022-09-01, 20:46:22
Bei einem Triple-Slot-Kühler kann man sich aber von den zuletzt umherkreisenden 320W auch direkt wieder verabschieden.
rentex
2022-09-01, 21:09:47
Link zur Quelle:
https://twitter.com/KittyYYuko/status/1565377778089725952/photo/1
Man sieht genau...gar nichts neues. Außer das NV, beim Design hängengeblieben wäre.
iamthebear
2022-09-01, 21:26:44
Man kann es zwar schlecht erkennen aber für mich sieht das eher nach einem Dual Slot Kühler aus, was bedeuet, dass es tatsächlich 320-340W sein werden und das ist auch die Grenze von dem was massentauglich ist. Alles darüber braucht Gehäuse mit optimiertem Luftstrom. Da reichen ein paar Lüfter irgendwo nicht mehr aus.
Linmoum
2022-09-01, 21:36:01
Kitty schreibt weiter unten in einem anderen tweet, dass es Triple Slot ist.
https://i.gyazo.com/a3b965b597f31c55d352e93b8a7951fd.png
Ex3cut3r
2022-09-01, 21:41:44
Glaubt ihr wirklich Nvidia benutzt einfach wieder das gleichen Kühler und auch im Design wird nix geändert? Sieht mir eher nach dem typischen 1. Minute Photoshop Fake aus, den Namen auf einem bereits existierenden Produkt zu ändern ist ziemlich schnell erledigt. Da stand ursprünglich einfach 3090 drauf, darauf verwette ich mein linkes Ei. :biggrin:
Linmoum
2022-09-01, 21:47:43
Dann schau dir mal den Lüfter genauer an. Das ist nicht derselbe wie bei den Ampere FE. ;)
iamthebear
2022-09-01, 21:53:04
Wenn es ein Fake ist, dann hat er zumindest daran gedacht die neuen Fonts von Nvidia zu verwenden.
Neurosphere
2022-09-01, 21:56:33
Jup, Lüfter ist anders, bzw genauer gesagt die Form der Blades.
Kann natürlich trotzdem ein Fake sein. Generell denke ich aber das NV beim FE Design bleiben wird, ist ja aus optischer Sicht auch recht gelungen (Geschmackssache natürlich).
Ex3cut3r
2022-09-01, 22:09:08
Dann schau dir mal den Lüfter genauer an. Das ist nicht derselbe wie bei den Ampere FE. ;)
Ja, ist ja auch ursprünglich eine Ali Express "3090" Attrappe.
Meiner Meinung nach gabs bis jetzt mit jeder neuen Gen auch ein neues Kühler Modell, mag sein, das Nvida mit dem Ampere Kühler zufrieden ist, dann wird der im Kern halt übernommen, (was ich aber auch nicht glaube) aber das Design würde massiv verändert werden. Das war schon immer der Fall, es wurde noch nie irgendein ein Design vorm Vorgänger einfach übernommen.
Das würde mich schon stark wundern, wenn es so kommt. Den der Nerd bzw. Käufer soll das Gefühl eines (überteuerten) neu Produkts bekommen, da ist das mit dem gleichen Design von vor 2 Jahren nicht getan. Da springen die optischen Reize des Gehirns einfach nicht an, den viele Käufer kaufen es nicht weil Sie es brauchen, sondern weil Sie "Junkies" sind, die brauchen den neuen - optischen Reiz. ^^
AMD hat das z.B. wunderbar erkannt, da wurde die Verpackung von Zen 4 komplett geändert/überarbeitet.
Tomahawk
2022-09-01, 22:22:50
@ Ex3cut3r
Das stimmt doch gar nicht - 780Ti und 980Ti sahen fast gleich aus.
Du springst auch ziemlich schnell - vorhin war es eine 3090, jetzt ist es eine Attrappe.
Ex3cut3r
2022-09-01, 22:24:23
Kann auch sein das ich falsch liege, aber das waren damals auch noch andere Zeiten. Da gab es eine 70er Karte für schlappe 320€ ~ GTX 970
wolik
2022-09-01, 23:16:34
https://cdn.shazoo.ru/639518_r8KvIT4_sshoyft-2.png
Slipknot79
2022-09-01, 23:17:53
Das heißt, Ampere Waküs passen auf Ada? :redface:
BlacKi
2022-09-02, 00:41:50
da wurde noch mehr geändert. die lüfter sind größer, etwa 5mm, man hat im frame aussparungen machen müssen und jener hat eine andere randform.
ausserdem sieht das nicht nach tripple slot aus. das ist dual slot.
mit OC sind sicher auch 400w drin die man abführen können wird. mit kopfhörern zumindest.
https://abload.de/img/screenshot2022-09-02au0ilg.png
Neurosphere
2022-09-02, 07:05:04
4090 oder 4090ti wohl mit Triple Lüfter laut greymon.
https://twitter.com/greymon55/status/1565544974242152448?t=W-7ES-CrVDciuzDriIdCMg&s=19
horn 12
2022-09-02, 07:32:42
4080 war wohl mit 420 Watt geplant
und nun kommen vielleicht Bios Schalter mit 420 und 340 Watt
da AMD einfach zu stark und zu effizient daherschießt mit dem RDNA 3 Lineup
Daher auch der Triple Slot Kühler auf der 4080 Karte da man immer mit 420 Watt Leistung gerechnet haben wird,
die Konkurrenz AMD RX 7900XT aber mit 350 bis max. 400 Watt kommt (Customs 400 Watt)
die 7800XT aber bei knappen 300 Watt (Referenz) bis maximalen 320 Watt die 7800XT in die Schranken weissen kann!
7900XT soll ja 350 Watt bis 400 Watt haben und knapp 4090 Leistung bieten, bei weitaus Besserem Preis.
Ist ja ein Video dazu auch, ----> aber Alles Spekulation meinerseits!
Dural
2022-09-02, 10:41:12
Ja klar, 420W mit Dual Slot Kühler :rolleyes:
Das ding wird Garantiert keine 420W haben, wie ich es übrigens schon vor ca. 6 Monaten geschrieben habe. (4080)
Die Twitter Kidis kann man alle nicht mehr ernst nehmen. Wie so immer kommen echte leaks eh nur von den Chinesen, weil die das zeug schlicht schon haben müssen (Entwicklung + Produktion + Vertrieb) und somit viel mehr Menschen Kontakt damit haben.
Echte ES Karten sind in der Westlichen Welt Mangelware, die die welche bekommen, haben Knebelverträge und wenn es eigene Mitarbeiter sind und was sagen stehen sie Morgen vor der Türe. Woher sollen da bitte schön echte Infos herkommen.
BlacKi
2022-09-02, 11:12:21
@neuro
falscher link? da gehts um full ada 102. und selbst da schreibt grey, das er nicht weiß obs tripple slot wird. er scheint keinen zugang zum kühler sondern nur zum pcb zu haben?
Thunder99
2022-09-02, 12:43:34
2-Slot geht auch bei hohen TDP, auf Kosten der Lautstärke :freak:
Könnte mir aber bei der 4080 ein 2.5 Slot Design vorstellen, da ja bei der 3080 dieser schon sehr an der Grenze war im Vergleich zur 3090
Neurosphere
2022-09-02, 12:53:35
@neuro
falscher link? da gehts um full ada 102. und selbst da schreibt grey, das er nicht weiß obs tripple slot wird. er scheint keinen zugang zum kühler sondern nur zum pcb zu haben?
Deswegen schrieb ich "wohl", ein paar der tweets waren heute morgen noch nicht da. 4090 war von mir aber falsch, wes wird nur die 4090ti genannt.
iamthebear
2022-09-02, 19:40:48
Also Full Fat AD102 um die 600W wird sicher mehr als einen 3 Slot Kühler haben.
Und die 3 Lüfter werden sicher auch nicht klein. Das wird ein riesiger Brocken, wobei mir nicht klar ist, ob es hier um eine FE oder Referenzkarte geht. Ich vermute Greymon hat auch nur das PCB gesehen.
Gott1337
2022-09-03, 03:53:30
4080 war wohl mit 420 Watt geplant
und nun kommen vielleicht Bios Schalter mit 420 und 340 Watt
da AMD einfach zu stark und zu effizient daherschießt mit dem RDNA 3 Lineup
Daher auch der Triple Slot Kühler auf der 4080 Karte da man immer mit 420 Watt Leistung gerechnet haben wird,
die Konkurrenz AMD RX 7900XT aber mit 350 bis max. 400 Watt kommt (Customs 400 Watt)
die 7800XT aber bei knappen 300 Watt (Referenz) bis maximalen 320 Watt die 7800XT in die Schranken weissen kann!
7900XT soll ja 350 Watt bis 400 Watt haben und knapp 4090 Leistung bieten, bei weitaus Besserem Preis.
Ist ja ein Video dazu auch, ----> aber Alles Spekulation meinerseits!
macht alles keinen Sinn...
weil RDNA3 so stark ist senkt Nvidia die TDP?
7900XT mit 400 Watt? das wäre auch über der Spezifikation...
https://www.techpowerup.com/298560/nvidia-geforce-rtx-4080-comes-in-12gb-and-16gb-variants
4080 16GB
4070Ti 12GB?
An 2 4080-Varianten glaub ich jedenfalls nicht ;).
Platos
2022-09-05, 09:07:57
Hoffe ich doch nicht. Denn damit wäre dann die 16GB Variante auch mit einem Sonderpreis ausgestattet.
12GB 4080 :freak: die könnten die sich ans Knie nageln. So einen Müll würd ich niemals empfehlen.
Dovregubben
2022-09-05, 10:41:08
4080 war wohl mit 420 Watt geplant
und nun kommen vielleicht Bios Schalter mit 420 und 340 Watt
da AMD einfach zu stark und zu effizient daherschießt mit dem RDNA 3 Lineup
Falls Nvidia die Leistungsaufnahme senkt, ist das eher ein Anzeichen für nen schwachen RDNA 3. Starke Konkurrenz hat in der Vergangenheit noch nie die Leistungsaufnahme gesenkt.
Falls Nvidia die Leistungsaufnahme senkt, ist das eher ein Anzeichen für nen schwachen RDNA 3. Starke Konkurrenz hat in der Vergangenheit noch nie die Leistungsaufnahme gesenkt.
Nope, das würd ich so nicht sehen. Die 4080 mit 12GB zeigt eher, dass man versucht die Kosten runterzubringen, mit allen Mitteln, um nicht blöd dazustehen, wenn man plötzlich niedrige Preise veranschlagen muss. Gleiches gilt für die TBP, denn desto mehr Bauteile kann man einsparen, desto weniger Layer müssen die PCBs haben und vor allem desto besser wird der Yield, da man nicht mehr so stark aussieben muss für die High-End-Varianten, was niedrigere Preise erst möglich macht. Das kostet halt sehr wenig Leistung und hat Effekt auf die Kosten.
Exxtreme
2022-09-05, 11:27:11
Falls Nvidia die Leistungsaufnahme senkt, ist das eher ein Anzeichen für nen schwachen RDNA 3. Starke Konkurrenz hat in der Vergangenheit noch nie die Leistungsaufnahme gesenkt.
Das ist eher eine Kostensenkungsmaßnahme. 420W ist kein Pappenstiel. Du brauchst große SpaWas, viele Layer auf der Platine, fette Kühlung etcpp. Sowas kannst du nur bei einer absoluten Enthusiastenkarte bringen, die dann 2000 € kostet. Aber nicht bei einem Modell in der oberen Leistungsklasse.
BlackBirdSR
2022-09-05, 11:43:06
Ihr dürft nicht vergessen, dass aktuell die Preise in den Lieferketten explodieren.
Das kann teilweiser zu, für uns, abstrusen Entscheidungen führen.
Nichts ist wichtiger als Marge (bei garantiertem Umsatzvolumen)
Nightspider
2022-09-05, 12:16:44
Und bei den aktuellen Energiepreisen freuen sich natürlich die Kunden über hohen Stromverbrauch. :ugly:
Nvidia wird auch mitbekommen haben wie schlecht über die mutmaßlichen Anstiege beim Verbrauch gesprochen wurde.
Dovregubben
2022-09-05, 12:17:01
Nope, das würd ich so nicht sehen. Die 4080 mit 12GB zeigt eher, dass man versucht die Kosten runterzubringen, mit allen Mitteln, um nicht blöd dazustehen, wenn man plötzlich niedrige Preise veranschlagen muss. Gleiches gilt für die TBP, denn desto mehr Bauteile kann man einsparen, desto weniger Layer müssen die PCBs haben und vor allem desto besser wird der Yield, da man nicht mehr so stark aussieben muss für die High-End-Varianten, was niedrigere Preise erst möglich macht. Das kostet halt sehr wenig Leistung und hat Effekt auf die Kosten.
Aha. Also zurück zu "AMD ist so stark, dass Nvidia aufgibt und ihre Karten noch schlechter macht, um AMD noch besser darzustehen zu lassen".
Same Procedure as every release :freak:
Linmoum
2022-09-05, 12:24:53
Ich weiß nicht, wie du von diesem Beitrag plötzlich auf AMD kommst. Davon war und ist nicht die Rede.
NV muss und will die Margen oben halten. Mittlerweile umso dringender, nachdem jetzt auch der Verkaufsstop nach China für den margenträchtigen HPC/AI-Markt kam. Das wird NV spüren und wenn man beim Desktop aus Gründen Kosteneinsparungen vornehmen kann, dann dürfte das durchaus möglich sein.
Zumal der ganze Markt gerade extrem preissensibel ist. Im März hatte NV womöglich noch deutlich höhere Preisvorstellungen als aktuell.
Aha. Also zurück zu "AMD ist so stark, dass Nvidia aufgibt und ihre Karten noch schlechter macht, um AMD noch besser darzustehen zu lassen".
Same Procedure as every release :freak:
Hab ich das geschrieben? Du kamst doch mit AMD ist so schwach, das ist genau Unsinnig. Es hängt eben an den Kosten, nicht an AMD.
Exxtreme
2022-09-05, 12:35:48
Aha. Also zurück zu "AMD ist so stark, dass Nvidia aufgibt und ihre Karten noch schlechter macht, um AMD noch besser darzustehen zu lassen".
Same Procedure as every release :freak:
Nein. Es ist so: die machen sowas garantiert nicht aus Spaß. Hohe Fertigungskosten drücken die Margen. Zweitens, die hohen Energiepreise sorgen dafür, dass diese Grafikkarten in der EU wohl kaum Chancen haben. Und es könnte auch noch schlechte Presse geben wenn angesichts dieser Energiepreise ein fetter Stromfresser daher kommt. Vor allem wenn es das in die Mainstreammedien schafft. Ergo ziehen sie hier den Stecker.
Und es ist davon auszugehen, dass AMD soetwas auch macht. Ich kann mir gut vorstellen, dass die sich da abgesprochen haben.
Abgesprochen ist da nix. Die analysieren ja vorher, was sinnvoll ist. AMD hat aber offenbar gar nicht solche riesigen W-Sprünge im Programm. Von 300 und 350W ist jetzt nichts so gewaltiges, daher denke ich, dass es bei AMD auch keine Änderungen geben wird. Das wird genau so kommen wie geplant bei denen. Für AMD ist descrete-GPU aber auch nur ein Nebenmarkt.
Dovregubben
2022-09-05, 12:47:12
Nein. Es ist so: die machen sowas garantiert nicht aus Spaß.
Hier werden doch eh nur Theorien aus Daten von Leakern zusammengebaut, die so eine breite Spanne haben, dass man alles reininterpretieren kann.
Wie das 420W Gerücht zustande kam, weiß kein Mensch.
Neurosphere
2022-09-05, 13:13:57
https://twitter.com/greymon55/status/1566738521389699073?t=J9zXoMGEZnbqiSESJv0jjQ&s=19
4090.
Platos
2022-09-05, 13:15:47
Und bei den aktuellen Energiepreisen freuen sich natürlich die Kunden über hohen Stromverbrauch. :ugly:
Nvidia wird auch mitbekommen haben wie schlecht über die mutmaßlichen Anstiege beim Verbrauch gesprochen wurde.
Manchmal habe ich sowieso das Gefühl, dass man gewisse Informationen "bewusst" leaken lässt. Natürlich nicht selber, aber man vergrössert einfach die Anzahl Leute, die über irgendwas bescheid wissen und somit steigt die Wahrscheinlichkeit für leaks an. Und dadurch sammeln die dann die Reaktionen.
Natürlich gibts sicherlich auch die einen oder anderen Informationen, die bewusst gestreut werden, um Leaker zu entlarven. Aber ich kann mir schon vorstellen, dass man indirekt dinge in die Öffentlichkeit durchsickern lässt um deren Reaktion zu sehen.
Troyan
2022-09-05, 13:39:51
https://twitter.com/greymon55/status/1566738521389699073?t=J9zXoMGEZnbqiSESJv0jjQ&s=19
4090.
Glaube ich nicht. :cool:
=Floi=
2022-09-05, 13:48:31
Ihr seid da wo falsch abgebogen. Die karten werden auch so mind. 20 phasen haben. Was soll man da groß einsparen. Es bleibt bei den pcs, welche igor beschrieben hat.
Die bauteilpreise sind bei den grafikkarten preisen sowas von egal. Es werden einfach 50€ draufgeschlagen und gut ists. Die nehmen ganz andere stückzahlen ab und werden ganz andere verträge haben.
Klar, die energiepreise in D interessieren NV. :ugly:
Wir retten ja auch mit unseren 2% das klima.
Exxtreme
2022-09-05, 13:52:27
Klar, die energiepreise in D interessieren NV. :ugly:
Wir retten ja auch mit unseren 2% das klima.
Die Energiepreise gehen im Euroraum überall nach oben. :freak: Und dazu kommt noch gallopierende Inflation. Und wenn es ganz blöd kommt dann kommen die EU-Politiker auf die Idee den Stromverbrauch zu regulieren. Bei Staubsaugern haben sie es ja schon. Und auch ein 2 kW Staubsauger braucht insgesamt viel weniger Energie als ein Spiele-PC.
DrFreaK666
2022-09-05, 13:53:09
...
Klar, die energiepreise in D interessieren NV. :ugly:
Wir retten ja auch mit unseren 2% das klima.
Die Energiepreise in D interessiert den Menschen in D. Auf den Verbrauch wird bestimmt stärker geschaut vergleichen mit den Jahren davor
Die Energiepreise sind auf der ganzen Welt sehr hoch. Nur ne Gaskrise gibts halt nur in Zentraleuropa.
Gott1337
2022-09-05, 15:22:41
Wenn der Stromverbrauch so wichtig ist, frag ich mich warum AMD bei den CPUs auch 65% TDP drauf packt... Wer Strom sparen will sollte woanders anfangen, dass bisschen was ihr am Tag zockt ändert doch kaum was.
Ob die CPUs jetzt mehr verbrauche oder ne Grafikkarte 600W ist halt ein Unterschied. Es geht hier ja auch weniger um den Stromverbrauch, das spielt eh nur für verstrahlte Europäer ne Rolle, problematischer sind Gehäuse und Netzteile. Aber NV wird primär trotzdem wegen der Kosten zurückrudern bei der Leistungsaufnahme, weil PCBs entsprechend teuer sind und entsprechend komplex bestückt werden müssen. Das mag ja bei einer 4090 keine Rolle spielen, aber bei <4080 spielt das ne große Rolle für alle Beteiligten.
Die Lieferketten bezüglich TSMC und weiteres für Elektronik scheint sich ja einigermaßen entspannt zu haben, sonst für DDR5 jetzt nicht so abstürzen (ist ja bereits angekündigt der Preissturz). Das ist nicht nur dem zusammengebrochenen PC-Markt geschuldet. Es sind eher andere Waren und alte Billig-Chips, die knapp sind.
Exxtreme
2022-09-05, 16:00:25
Wenn der Stromverbrauch so wichtig ist, frag ich mich warum AMD bei den CPUs auch 65% TDP drauf packt... Wer Strom sparen will sollte woanders anfangen, dass bisschen was ihr am Tag zockt ändert doch kaum was.
Wie hoch ist die TDP von Ryzen 4-Prozessoren? Und wo kann man das nachlesen?
bbott
2022-09-05, 16:00:45
Aha. Also zurück zu "AMD ist so stark, dass Nvidia aufgibt und ihre Karten noch schlechter macht, um AMD noch besser darzustehen zu lassen".
Same Procedure as every release :freak:
Eher wir können unsere Produkte so schlecht machen wie wir wollen (RAM sparen), die Kunden kaufen es trozdem. Nvidia: Wir sind immer noch bei 80% Marktanteil :freak:
davidzo
2022-09-05, 16:03:53
Der Markt wird halt immer kleiner wenn man solche TDPs veröffentlicht.
OEMs tolerieren das schon länger nicht mehr. Die verbauen ja jetzt schon Karten mit kompakteren Kühllösungen und niedrigerem TDPlimit. Die müssten beim Chassis Design, Netzteilen, Gehäusebelüftung etc. sonst komplett neu anfangen (so wie Corsair beim One). Die wenigsten OEMs sind bereits zu solch großen Neuentwicklungen. Dann lieber schrittweise Verbesserungen wie schnellere und zusätzliche casefans, ein Platinum-netzteil plus TDPlimits für GPU und CPU inkl. hohen Temps und Lüfterddrehzahlen unter Last.
Retailgehäuse sind halt viel einfacher zu kühlen, da man überall Mesh verbauen kann und damit fast unbegrenzt viele Lüfter möglich sind. Das geht bei Fertig-PCs nicht, sondern nur bei "show-Gehäusen" die getrennt von der Hardware verkauft werden und daher keinerlei Probleme mit CE, EMV, RED Comliance haben. Mesh-Gehäuse, Plexiglas Windows etc. fallen einfach durch jeden EMV-Test. Und ich bin mir sicher dass so manche WIFI Störung, schlechter Handyempfang, etc. die wir hier im Forum debuggen einfach nur auf schlecht geschirmte DIY PCs zurückzuführen ist.
Man sieht ja was für Handstände die OEMs machen müssen um die Richtlinien einzuhalten: Alutape, Federschrauben, Ferritkerne, leitfähiger Schaum, Kupferlack auf Kunststofflächen und extrem feine restriktive Lüftergitter. Das machen die nicht ohne Not, sondern weil sie sonst durchfallen würden und verklagt werden.
Im Retail sehe ich grundsätzlich dasselbe Problem. Nicht wenige Highend GPU Käufer kaufen nicht den ganzen PC neu, sondern sind Aufrüster. Wenn das bisherige Chassis und Netzteil mit getauscht werden muss ist das ein Grund die Leistungsklasse nochmal zu überdenken und nicht ggf. eine Klasse tiefer einzusteigen.
amdfanuwe
2022-09-05, 17:14:01
Wie hoch ist die TDP von Ryzen 4-Prozessoren? Und wo kann man das nachlesen?
Auf den AMD Folien bei der Vorstellung.
170W TDP für 7950X und 7900X.
Wieviel die in Games wirklich ziehen ist eine andere Frage.
aceCrasher
2022-09-05, 19:52:26
Wie hoch ist die TDP von Ryzen 4-Prozessoren? Und wo kann man das nachlesen?
170W TDP bei 7950X und 7900X, also vorraussichtlich 230W PBO (170 x 1,35).
105W TDP bei 7700X und 7600X, also vorraussichtlich 142W PBO.
iamthebear
2022-09-05, 21:35:30
Ihr dürft nicht vergessen, dass aktuell die Preise in den Lieferketten explodieren.
Das kann teilweiser zu, für uns, abstrusen Entscheidungen führen.
Nichts ist wichtiger als Marge (bei garantiertem Umsatzvolumen)
Bei den allgemeinen Lieferketten hast du sicher Recht.
Bei den Komponenten, die für GPUs relevant sind geht der Trend aber stark nach unten. Das ist nicht nur das fehlende Mining, sondern generell der zusammenbrechende PC Absatz nach dem Ende von Lockdowns, Home Office etc.
Abgesehen davon: Wenn die 4080 nur 12GB bekommt, dann bedeutet dies wahrscheinlich, dass es sich um AD104 handelt d.h. man lediglich die Bezeichnungen nicht nur um 1 Stufe, sondern sogar um 2 Stufen nach oben verschiebt. Das bedeutet nichts Gutes für die Preise und Nvidia versucht ähnlich wie bei Turing fehlende Umsätze durch höhere Preise zu kompensieren.
Es ist jedoch auch gut möglich, dass das bewusst gestreute Falschmeldungen sind, damit man den alten Ramsch losbringt. Man muss irgendwie das Gerücht von 2x Performance bei der neuen Generation zerstören.
Wenn der Stromverbrauch so wichtig ist, frag ich mich warum AMD bei den CPUs auch 65% TDP drauf packt... Wer Strom sparen will sollte woanders anfangen, dass bisschen was ihr am Tag zockt ändert doch kaum was.
Zen4 braucht nicht mehr TDP als Zen3. Der 65W Vergleich zeigt sogar, dass dieser bei niedriger TDP sogar deutlich besser zu Recht kommt.
Es steigt alleine das Maximum an. Das liegt jedoch einfach daran, dass AMD nun endlich auch einen modernen Sockel verwendet. Früher hat hier einfach AM4 limitiert.
Das bedeutet jedoch nicht, dass man unbedingt seine CPU mit 230W grillen muss. Es wird sicher wieder einen Eco Modus geben und ich vermute sogar, dass es noch mehr einfache Konfigurationsoptionen nach unten geben wird besonders für OEMs.
bbott
2022-09-05, 21:35:56
170W TDP bei 7950X und 7900X, also vorraussichtlich 230W PBO (170 x 1,35).
105W TDP bei 7700X und 7600X, also vorraussichtlich 142W PBO.
Mit der Aussage von AMD das in CB es wohl weniger als 170W waren.
Thunder99
2022-09-05, 21:54:47
Die 12GB sind unrealistisch für die 4080 wenn der große Chip mit der 4090 so schnell ist.
Seit Pascal nur 11GB +/- 1GB und dann wieder nur 12? Glaube es erst wenn ich es sehe.
104 und 102 sind zu weit auseinander, da passt der 103er einigermaßen rein was nur die 4080 werden kann mit entsprechenden 16GB
Slipknot79
2022-09-05, 23:00:11
Glaube ich nicht. :cool:
Angeblich ES.
iamthebear
2022-09-05, 23:01:20
12GB würde ich sogar noch als sinnvoll erachten. Der Preis/GB ist seit Pascal nicht gefallen. Ich weiß nicht warum hier einige meinen es müsste massiv mehr Speicher geben. Auf welcher Grundlage?
Wenn an den 12GB was dran ist, dann bedeutet dies allerdings, dass die 4080 auch entweder mit AD104 kommt oder einem sehr stark beschnittenen AD104 mit nur 192 Bit SI.
12GB für ne 4080 sind klar zu wenig, wenn sie klar mehr als 500€ kostet. Entweder beißt NV beim Preis zumindest später in den sauren Apfel oder die Karte hat letztendlich 16GB. Alles andere ist völlig inakzeptabel und wird auf dem Markt nicht funktionieren.
maximus_hertus
2022-09-05, 23:56:30
12GB für ne 4080 sind klar zu wenig, wenn sie klar mehr als 500€ kostet. Entweder beißt NV beim Preis zumindest später in den sauren Apfel oder die Karte hat letztendlich 16GB. Alles andere ist völlig inakzeptabel und wird auf dem Markt nicht funktionieren.
Auch wenn du und einige andere es nicht gerne hören => Ein Gamingrechner besteht für viele aus einem Prozessor, RAM und einer Geforce. Du glaubst gar nicht, wie viele mittlerweile Geforce = Grafikkarte sehen. MAn spricht häufig gar nicht mehr von Grafikkarten, sondern schlicht Geforce.
nV hat, ob es jemandem gefällt oder nicht, über Jahrzehnte einfach nur exzellente Arbeit geleistet. 12GB bei einer 4080? Würde passen.
Genug VRAM für heute und morgen, aber wohl etwas knapp für übermorgenund damit sichert man sich den nächsten Geforce-Verkauf. Eine 16GB 6080 oder so ähnlich.
Bevor man mir aber Fanboytum unterstellen würde => ich würde 12GB enttäuschend finden und mir auch mit einer Empfehlung schwer tun. Aber es macht noch keinen Sinn über komplett ungelegte Eier zu spekulieren.
Wenn ich mir angucke, wie Ada aussehen solte, dann haben wir ungefähr 50+ verschiedene Karten, die dieses Jahr noch kommen sollten. nV probiert sicherlich verschiedenes aus und wird sich zur gegebener Zeit entscheiden, was sie nun bringen werden. Ich kann die "Aufregung" daher nicht wirklich verstehen. Die 4080 soll ja doch noch Monate entfernt sein.
Gott1337
2022-09-06, 01:40:17
Wie hoch ist die TDP von Ryzen 4-Prozessoren? Und wo kann man das nachlesen?
und wo ist die von ampere? :confused::rolleyes:
prinz_valium_2
2022-09-06, 11:24:22
Was ein Blödsinn wieder.
Gibt es eine Karte, die ein 103AD oder 104AD mit 12GB und 10 Layer PCB hat?
Mit an Sicherheit grenzender Wahrscheinlichkeit, ja.
Wird es eine 4080 mit 16GB und 4080 mit 12GB geben, die gleichzeitig unter dem Namen vermarktet und an Endkunden verkauft werden?
Mit an Sicherheit grenzender Wahrscheinlichkeit, nein.
w0mbat
2022-09-06, 14:17:54
Finde ich auch eher unwahrscheinlich. Klar, das gab es schon, aber eher im entry level (1060 6GB & 3GB). Zwei 4080 mit unterschiedlichen Specs machen keinen Sinn.
Lehdro
2022-09-06, 15:00:01
Zwei 4080 mit unterschiedlichen Specs machen keinen Sinn.
RTX 3080. Wie wir wissen war sogar eine 3080 20 GB geplant, das wären dann 3. Immerhin zwei (10 GB + 12 GB) sind auf dem Markt gelandet.
w0mbat
2022-09-06, 15:08:52
Es gab sehr lange nur eine 10GB 3080 und erst viel später kam dann der "refresh". Es gab auch 2060 und 2060 Super, aber die wurden auch nicht gleichzeitig gelaunched.
Lehdro
2022-09-06, 15:30:58
Es gab sehr lange nur eine 10GB 3080 und erst viel später kam dann der "refresh".
Wer sagt denn das 12 GiB und 16 GiB Varianten simultan oder überhaupt beide erscheinen? Von der 20 GiB Version der 3080 war auch ewig die Rede, kam aber nie.
Den Punkt dass das keinen Sinn ergibt lasse ich jedenfalls nicht gelten, dazu hat NV schon zu gut mit der 3080 bewiesen dass das dort jedenfalls kein hartes Ausschlusskriterium ist. Ansonsten noch der Verweis auf "Super" bzw. Refreshes.
prinz_valium_2
2022-09-06, 15:58:19
Es gab sehr lange nur eine 10GB 3080 und erst viel später kam dann der "refresh". Es gab auch 2060 und 2060 Super, aber die wurden auch nicht gleichzeitig gelaunched.
Genau das ist der Punkt.
Wenn es gleichzeitig ist, muss unterschieden werden.
gross2
2022-09-06, 16:15:47
AD103 auf 192bit Memory Interface zu beschneiden macht selbst für NV zu wenig Sinn. Vor allem weil sie das schon mit AD104 haben.
Ich kann mich zudem an keine Generation erinnern in der zum Launch nicht das volle Speicherinterface von den Chips für zumindest eine Karten-Variente genutzt wurde.
Meine persönliche Spekulation:
Nachdem der 103er Chip dazu kommt, wird die 4080 Ti nicht mehr auf AD102 basieren.
AD103 12GiB = 4080
AD103 16GiB = 4080 Ti
Und schon haben sie damit AD103 bis auf den Preispunkt der 80 Ti gehoben ~$1200
In Folge ist AD102 auch automatisch nur noch ab ~$1500 für 4090 zu bekommen.
Bzw. ~$2000 für 4090 Ti kommt sicher auch noch nach.
Und das ganz ohne "Preiserhöhung", die 40er Serie kostet ja immernoch das selbe wie die 30er, wofür NV idealerweise noch von den meisten gefeiert wird.
Bin ich zu zynisch wenn mir das nach etwas klingt das NV machen würde?
Das gleiche Spiel würde auch die AD104 Variante mit 10GiB erklären:
AD104 10GiB = 4070
AD104 12GiB = 4070 Ti
Dovregubben
2022-09-06, 16:20:50
Klingt nach ner typischen 70 Ti Karte mit großem Chip aber beschnittenem Speicherinterface. Gab es schon öfters.
Nazar
2022-09-06, 19:15:59
12GB würde ich sogar noch als sinnvoll erachten. Der Preis/GB ist seit Pascal nicht gefallen. Ich weiß nicht warum hier einige meinen es müsste massiv mehr Speicher geben. Auf welcher Grundlage?
Wenn an den 12GB was dran ist, dann bedeutet dies allerdings, dass die 4080 auch entweder mit AD104 kommt oder einem sehr stark beschnittenen AD104 mit nur 192 Bit SI.
Hm? Soll die RT Leistung nicht sogar um den Faktor 2+ verbessert worden sein?
RT hat in den Qualitäts Modi teilweise schon mehr Speicher benötigt als die meisten nV-GPUs bereitstellen konnten. Weshalb dann künstlich das Plus an Leistung zerstören?
Für mich wäre es an Dummheit kaum zu übertreffen, wenn es tatsächlich eine 4080 mit nur 12 GB VRAM geben sollte.
Das würde nur dann Sinn ergeben, wenn die Leistung nicht so hoch ist wie spekuliert wurde und damit mehr Speicher kaum ins Gewicht fällt, oder aber 2. nV hat eine noch geheime neue Technik für die optimierte VRAM Nutzung in der Hinterhand.
Eine 3. Option ist auch noch möglich, die allerdings auf Punkt 1 basiert. Die Leistung ist nicht so berauschend und man versucht mit allen Mitteln so viele GPUs zu verkaufen, bis AMD im nächsten Jahr mit den High- u. Midrangekarten auf den Markt kommt.
Es bleibt spannend. ;)
ChaosTM
2022-09-06, 19:25:01
Bin da bei Nazar. 12GB bei doppelter RT Leistung könnte eventuell fatal enden für 4k User.
Alle anderen könne sich (noch) zurücklehnen, oder gibst bei 1440p auch schon Speicher- Flaschenhälse ?
iamthebear
2022-09-06, 20:18:31
Hm? Soll die RT Leistung nicht sogar um den Faktor 2+ verbessert worden sein?
RT hat in den Qualitäts Modi teilweise schon mehr Speicher benötigt als die meisten nV-GPUs bereitstellen konnten. Weshalb dann künstlich das Plus an Leistung zerstören?
Für mich wäre es an Dummheit kaum zu übertreffen, wenn es tatsächlich eine 4080 mit nur 12 GB VRAM geben sollte.
Das würde nur dann Sinn ergeben, wenn die Leistung nicht so hoch ist wie spekuliert wurde und damit mehr Speicher kaum ins Gewicht fällt, oder aber 2. nV hat eine noch geheime neue Technik für die optimierte VRAM Nutzung in der Hinterhand.
Eine 3. Option ist auch noch möglich, die allerdings auf Punkt 1 basiert. Die Leistung ist nicht so berauschend und man versucht mit allen Mitteln so viele GPUs zu verkaufen, bis AMD im nächsten Jahr mit den High- u. Midrangekarten auf den Markt kommt.
Es bleibt spannend. ;)[/QUOTE]
Die 4GB zusätzlicher VRAM kosten aktuell in etwa doppelt so viel wie das Upgrade von AD104 auf AD103.
AD103 vs. AD104 bringt durch die Bank 30% mehr fps
Derzeit ist mir gar kein Spiel bekannt, dass selbst in 4K Ultra+RT um 30% einbricht
Klar ist mehr VRAM nett wenn es ihn gratis oben drauf gibt aber 99% der Kunden werden das nicht bezahlen. Diese leidvolle Erfahrung muss gerade AMD machen, dass die Kunden für die sauteuren 16GB auf der 6800 genau dasselbe bezahlen wie für die 8GB der 3070 Ti.
Linmoum
2022-09-07, 08:38:14
Keine Ahnung, wie legit der Typ ist.
https://mobile.twitter.com/QbitLeaks/status/1567342466109423618
https://mobile.twitter.com/QbitLeaks/status/1567380930389544960
https://mobile.twitter.com/QbitLeaks/status/1567378137100460037
gross2
2022-09-07, 08:55:18
Klingt nach ner typischen 70 Ti Karte mit großem Chip aber beschnittenem Speicherinterface. Gab es schon öfters.
Bei den 70ern erinnere ich mich jetzt an kein Beispiel, aber ja für Salvage Varianten das Speicherinterface zu beschneiden ist nichts neues.
Wäre die andere Option:
- voller AD103 für 4080 16GiB
- AD103 Salvage beschnitten auf AD104 Specs als 4070 TI 12 GiB
- voller AD104 ebenfalls als 4070 TI 12GiB
- AD104 Salvage als 4070 10GiB
Ich befürchte aber wirklich das sie den vollen AD103 als 80 Ti teuer verkaufen wollen.
Die normale 4080 kommt dann mit 12GiB und noch ein paar deaktivieten SMs.
Und es ist immer noch Luft für einen 4080 Super Refresh mit z.B. 14GiB.
Troyan
2022-09-07, 09:07:07
Je näher die GTC, umso besser sollten die Leaks werden.
Die Specs oben erhöhen Perf/Watt um Faktor 2x.
Platos
2022-09-07, 09:11:38
Je näher die GTC, umso besser sollten die Leaks werden.
Die Specs oben erhöhen Perf/Watt um Faktor 2x.
Es wird sich wahrscheinlich um die 4090 handeln, also ist der Stromverbrauch (laut Leaks) höher, wie der der 3090. Ergo ist die Energieeffizienz auch nicht 2x höher.
Troyan
2022-09-07, 09:13:36
Es wird sich wahrscheinlich um die 4090 handeln, also ist der Stromverbrauch (laut Leaks) höher, wie der der 3090. Ergo ist die Energieeffizienz auch nicht 2x höher.
Wer weiß, welche Karte dort genommen wurde. Die genannten Specs sind der Vollausbau und damit 3090TI.
Außerdem kommen noch 24GB zusätzlicher Speicher hinzu. Der bringt in Spielen nichts, kostet aber auch Strom.
AffenJack
2022-09-07, 10:48:39
Wer weiß, welche Karte dort genommen wurde. Die genannten Specs sind der Vollausbau und damit 3090TI.
Außerdem kommen noch 24GB zusätzlicher Speicher hinzu. Der bringt in Spielen nichts, kostet aber auch Strom.
Er schreibt selbst, dass es das professionelle Flagship sein könnte mit den 48 GB und dann hätten wir 260W TGP bei der RTX8000 mit GA102 vs 400W TGP bei AD102. Das wäre ne massive TGP Erhöhung auch im professionellen Bereich.
Aber auch ne massive Takterhöhung, RTX8000 gerade:
Base 1395MHz, Boost: 1770MHz
AD102 Profi: 2010mhz (+45%), Boost 2450mhz (+38%)
Troyan
2022-09-07, 10:54:12
Die 48GB A6000 Karte hat eine TBP von 300W: https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/quadro-product-literature/proviz-print-nvidia-rtx-a6000-datasheet-us-nvidia-1454980-r9-web%20(1).pdf
Die A6000 gibt es nur mit 16GBit/s GDDR6 Speicher. Ein Teil kommt also dann von G6X.
Die Specs oben erhöhen Perf/Watt um Faktor 2x.
Das wäre schon ziemlich geil, angesichts des Riesensprungs bei der Fertigung aber durchaus wünschenswert. Mit einer voll optimierten, untertakteten Sweet-Spot-Ti (GA102 Full Fat) lässt sich die Effizienz um bestenfalls 80-90 Prozent gegenüber dem Werkszustand verbessern. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Specials/Strom-sparen-Extrembeispiel-RTX-3090-Ti-1399887/) Dann liegt man aber nur noch knapp auf 3080-Leistungsniveau (bei 3060-OC-Leistungsaufnahme).
MfG
Raff
Platos
2022-09-07, 11:23:48
Das wäre schon ziemlich geil, angesichts des Riesensprungs bei der Fertigung aber durchaus wünschenswert. Mit einer voll optimierten, untertakteten Sweet-Spot-Ti (GA102 Full Fat) lässt sich die Effizienz um bestenfalls 80-90 Prozent gegenüber dem Werkszustand verbessern. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Specials/Strom-sparen-Extrembeispiel-RTX-3090-Ti-1399887/) Dann liegt man aber nur noch knapp auf 3080-Leistungsniveau (bei 3060-Ti-Leistungsaufnahme).
MfG
Raff
Da überhaupt nix zum Stromverbrauch steht, ist diese Grafik eig. komplett Wertlos. Es steht nicht mal, ob es da um FPS geht oder vlt. gehts ja auch um Frametimes (spass xD).
Oder vielleicht gehts ja auch um den Stromverbrauch. 2.2x so hoch wie last-gen xD
Aber mal im Ernst: Wertloseste Grafik, die ich seit langem gesehen habe. Fehlt nur noch, dass der Ursprung nicht bei 0 anfängt :D
Ich will ja zuerst mal sehen, wie gut die Karten bei der Energieffizienz sind, wenn sie dann untervoltet werden/Powerlimts drauf gegeben werden bzw. übertaktet (bei gleichzeitiger Untervoltung).
Troyan
2022-09-07, 11:29:21
Das Bild der Karte sowie die Renderbilder scheinen übereinzustimmen. Das stärkt jedenfalls die Qualität der Leaks von den Typen.
Platos
2022-09-07, 11:36:12
Das Bild der Karte sowie die Renderbilder scheinen übereinzustimmen. Das stärkt jedenfalls die Qualität der Leaks von den Typen.
Das ändert ja nichts daran, dass es absolut keine Informationen zum Stromverbrauch gibt, mit der die Karte lief und keine der Achsen beschriftet ist...
Neurosphere
2022-09-07, 11:39:12
So begeisternd ist das ganze auch nicht wirklich. Würde bedeuten wir haben bei RT eine Leistungsverdopplung, nur Raster vermutlich weniger. Auch wenn man nicht weiß was da nun genau verglichen wurde, aber es müsste echt deutlich mehr als 2x kommen bei der RT Leistung damit das ganze mal Salonfähig wird.
Troyan
2022-09-07, 11:43:27
Das ändert ja nichts daran, dass es absolut keine Informationen zum Stromverbrauch gibt, mit der die Karte lief und keine der Achsen beschriftet ist...
Hä? Er schreibt von 400W und hat ein Rohbild. Dazu die Renderbilder der Karte, die vor ein paar Tagen geleakt wurde. Das sieht eindeutig mehr vertrauensvoller aus als andere "Leaks".
So begeisternd ist das ganze auch nicht wirklich. Würde bedeuten wir haben bei RT eine Leistungsverdopplung, nur Raster vermutlich weniger. Auch wenn man nicht weiß was da nun genau verglichen wurde, aber es müsste echt deutlich mehr als 2x kommen bei der RT Leistung damit das ganze mal Salonfähig wird.
Rasterleistung ist vollkommen belanglos und selbst hier muss die Leistung bei ca. 2x. liegen, um überhaupt eine Verdopplung in Hybrid-Spielen erreichen.
Exxtreme
2022-09-07, 11:46:40
So begeisternd ist das ganze auch nicht wirklich. Würde bedeuten wir haben bei RT eine Leistungsverdopplung, nur Raster vermutlich weniger. Auch wenn man nicht weiß was da nun genau verglichen wurde, aber es müsste echt deutlich mehr als 2x kommen bei der RT Leistung damit das ganze mal Salonfähig wird.
Die Frage ist jetzt ob man noch mehr Rastersizer-Leistung wirklich braucht. Es ist nämlich so, die haben auch Statistiken mit welcher Auflösung die meisten Spieler spielen. Und wenn die merken, dass mehr Rastersizer-Leistung nur noch bei 8k Auflösung nennenswert was bringt und mit 8k nur 0,7% der Spieler spielen dann ... lässt man es dieses Mal hier eventuell bissl ruhiger angehen und verbessert andere Dinge. Und RT ist derzeit eine große Baustelle was Leistung angeht und damit eher ein Bereich wo man die Spieler beeindrucken kann.
Neurosphere
2022-09-07, 11:49:49
Rasterleistung ist vollkommen belanglos und selbst hier muss die Leistung bei ca. 2x. liegen, um überhaupt eine Verdopplung in Hybrid-Spielen erreichen.
Mit den Steigerungen bei RT ist Raster weit davon entfernt belanglos zu sein.
Die Frage ist jetzt ob man noch mehr Rastersizer-Leistung wirklich braucht. Es ist nämlich so, die haben auch Statistiken mit welcher Auflösung die meisten Spieler spielen. Und wenn die merken, dass mehr Rastersizer-Leistung nur noch bei 8k Auflösung nennenswert was bringt und mit 8k nur 0,7% der Spieler spielen dann ... lässt man es dieses Mal hier eventuell bissl ruhiger angehen und verbessert andere Dinge. Und RT ist derzeit eine große Baustelle was Leistung angeht und damit eher ein Bereich wo man die Spieler beeindrucken kann.
Da bin ich bei dir. Aber wenn der Graph soweit stimmt, wird sich mit der gebotenen RT Leistung in Zukunft grafisch nicht so viel ändern in dem Bereich.
basix
2022-09-07, 11:50:12
Das wäre schon ziemlich geil, angesichts des Riesensprungs bei der Fertigung aber durchaus wünschenswert. Mit einer voll optimierten, untertakteten Sweet-Spot-Ti (GA102 Full Fat) lässt sich die Effizienz um bestenfalls 80-90 Prozent gegenüber dem Werkszustand verbessern. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Specials/Strom-sparen-Extrembeispiel-RTX-3090-Ti-1399887/) Dann liegt man aber nur noch knapp auf 3080-Leistungsniveau (bei 3060-OC-Leistungsaufnahme).
MfG
Raff
Man muss aber auch sehen, dass man in diesem Fall mit der 3090 Ti verglichen hätte. Und diese ist nun bei weitem nicht die energieeffizienteste Karte von Nvidia (sondern zusammen mit der 3070 Ti mitunder die ineffizienteste), selbst die 3090 steht da bereits einiges besser da.
Dann bleiben am Schluss evtl. noch 1.7...1.8x Energieffizienz übrig. Nicht schlecht, aber nicht 2x ;) Verglichen mit einer bald 4 Jahre alten 2080 Ti in 12nm ist es dann eben auch nicht wirklich mehr als diese ~2x Energieffizienz. So extrem gut ist das jetzt nicht. Nur der absolute Leistungssprung ist wirklich sehr gross, mit etwa 3-4x. Wobei es inkl. RT eher bei der oberen der zwei Zahlen liegt.
Troyan
2022-09-07, 11:52:13
Mit den Steigerungen bei RT ist Raster weit davon entfernt belanglos zu sein.
Rasterizing hat keine Relevanz mehr. Upscaling mit DLSS hat den Bedarf um 1/3 reduziert. Die Zukunft sieht vollkommen anders aus als die Vergangenheit. Du wirst Farbwerte für Pixel nicht mehr durch Brute-Force Berechnungen erstellen, sondern durch DL-Netzwerke.
Platos
2022-09-07, 11:52:40
Hä? Er schreibt von 400W und hat ein Rohbild. Dazu die Renderbilder der Karte, die vor ein paar Tagen geleakt wurde. Das sieht eindeutig mehr vertrauensvoller aus als andere "Leaks".
Wo denn? Und mit was wurde verglichen? Einer 3090Ti? Ich habe in den 3 Twitter-Posts gar nichts davon gelesen. Kannst du das verlinken?
basix
2022-09-07, 11:57:56
Es steht nirgends was von der Ampere Karte und dessen Modell. 3090 Ti ist einfach eine Annahme.
Troyan
2022-09-07, 12:04:55
Wo denn? Und mit was wurde verglichen? Einer 3090Ti. Ich habe in den 3 Twitter-Posts gar nichts davon gelesen. Kannst du das verlinken?
Das Rohbild ist nicht mein Bezug. Der Typ hat folgende Specs geleakt: https://twitter.com/QbitLeaks/status/1566965715588063233?cxt=HHwWgoC9zYTB_b4rAAAA
Das Äquivalent bei Ampere ist die 3090TI.
Für das Rohbild hat er keine Ahnung, welche Karten verwendet worden sind.
Platos
2022-09-07, 12:33:33
Das Rohbild ist nicht mein Bezug. Der Typ hat folgende Specs geleakt: https://twitter.com/QbitLeaks/status/1566965715588063233?cxt=HHwWgoC9zYTB_b4rAAAA
Das Äquivalent bei Ampere ist die 3090TI.
Für das Rohbild hat er keine Ahnung, welche Karten verwendet worden sind.
Er schreibt doch selbst, es ist nicht das Flagschiff, der da als Vergleich genommen wurde bei Ada. Dass es eine 3090Ti im Vergleich ist, ist auch nirgendswo einsehbar.
Das mit den 400W scheint aber das Topmodell zu sein laut deinem Link. Möglicherweise aber nicht GeForce.
The_Invisible
2022-09-07, 15:06:55
Keine Ahnung, wie legit der Typ ist.
https://mobile.twitter.com/QbitLeaks/status/1567342466109423618
https://mobile.twitter.com/QbitLeaks/status/1567380930389544960
https://mobile.twitter.com/QbitLeaks/status/1567378137100460037
Das meinte ich ja immer das die RT-leistung stärker als die Rasterizing Leistung steigt. Wär zwar interessant welche GPUs das bei den Graphen sind aber CP2077 dürfte da bei 4k nativ/max wohls erstmal in den 50-60fps Bereich rutschen :D
robbitop
2022-09-07, 15:14:43
Wäre auch mal Zeit. Seit Turing hat sich an der RT Pipeline nicht so viel getan. Es kann noch eine ganze Menge mehr in HW verbaut werden. Siehe den RT Hardwarelevel Chart von IMG Tec.
Mal schauen ob AMD jetzt mit rdna3 einfach nur level 3 umsetzt wie NV mit Turing/Ampere oder man gleich antizipiert, dass die Konkurrenz einen draufsetzt und man das selbst auch tut.
Leonidas
2022-09-07, 15:33:39
Keine Ahnung, wie legit der Typ ist.
https://mobile.twitter.com/QbitLeaks/status/1567378137100460037
Ziemlich sicher 3090 zu 4090. NV vergleicht eigentlich immer nur Gen zu Gen, das gibt die höheren Perf-Gewinne und ist schwerlich angreifbar.
Gipsel
2022-09-07, 15:35:21
Außerdem kommen noch 24GB zusätzlicher Speicher hinzu. Der bringt in Spielen nichts, kostet aber auch Strom.Mal ganz allgemein: Speicherkapazität kostet nur sehr wenig Mehrverbrauch, ganz im Gegensatz zu Speicherbandbreite.
iamthebear
2022-09-07, 20:12:19
Zusätzliche Kapazität nicht, zusätzliche Chips jedoch schon. Bei der 3090 sind das was ich im Kopf habe um die 20W.
Ich tippe auch auf:
4090 vs. 3090
und 4090 Ti wird das Flaggschiff
Thunder99
2022-09-07, 20:23:21
Zusätzliche Kapazität nicht, zusätzliche Chips jedoch schon. Bei der 3090 sind das was ich im Kopf habe um die 20W.
Ich tippe auch auf:
4090 vs. 3090
und 4090 Ti wird das Flaggschiff
Durch die 2GIB Module ist das wieder entschärft, daher sind auch 16GB bei der 4080 am wahrscheinlichsten zu einem moderaten Mehrpreis als eine 12GB Karte (4070(TI))
Nazar
2022-09-08, 03:14:38
Je näher die GTC, umso besser sollten die Leaks werden.
Die Specs oben erhöhen Perf/Watt um Faktor 2x.
Wenn es mich nicht täuscht, waren das RT Werte.
Geht man davon aus, dass mit den höchsten BQ Einstellungen getestet wurde, sollte der Faktor 2 für RT kein Problem für Ada 102 sein. Da es hier aber um RT geht, ist davon nicht auf eine Energieeffizienz overall zu schließen. Auch ist nicht ersichtlich, unter welchen Voraussetzungen (Verlustleistung, Treibereinstellungen (optimiert für LL?), etc.) diese Werte erreicht wurden.
Nach allem, was man bisher lesen durfte, hätte nV dann alle zu Narren gehalten.
nV würden bis 350 Watt gar keine größeren Kühler benötigen und man könnte mit 450 Watt die Performance um den Faktor 2,6 steigern. Mit 550 Watt wären sogar bis zur 3-fachen Performance möglich.
Alles Bisherige spricht dagegen, oder aber nV veräppelt gerade den Globus. ;)
Rasterizing hat keine Relevanz mehr. Upscaling mit DLSS hat den Bedarf um 1/3 reduziert. Die Zukunft sieht vollkommen anders aus als die Vergangenheit. Du wirst Farbwerte für Pixel nicht mehr durch Brute-Force Berechnungen erstellen, sondern durch DL-Netzwerke.
99% aller normalen Spieler erkennen nicht, ob RT aktiviert ist oder nicht. Also, wovon redest du?
boxleitnerb
2022-09-08, 05:17:20
@Nazar:
DLSS hat nichts mit RT zu tun. Nochmal darüber nachdenken.
BlacKi
2022-09-08, 05:26:36
klingt nach einem neuen feature, das man mit ada bringen will. sowas wie dlss oder RT.
Of course, there is a possibility that this particular teaser may not be about the new cards specifically, but rather a new technology that we have not heard about yet but may be connected to the GeForce GPUS somehow.https://videocardz.com/newz/nvidia-teases-project-beyond-has-geforce-rtx-40-marketing-campaign-started
Troyan
2022-09-08, 13:03:17
(nVidia)kündigt Special-Geforce-Broadcast innerhalb der GTC-Keynote an: https://videocardz.com/newz/nvidia-to-announce-september-20-geforce-beyond-special-broadcast-at-gtc-geforce-rtx-40-series-incoming
Edgecrusher86
2022-09-08, 15:04:12
20.09. - 18:00 also - gut. :)
robbitop
2022-09-08, 17:22:57
Ich würde auch darauf tippen, dass DLSS 3.0 kommt mit einer wesentlichen Neuerung.
Und wahrscheinlich wird man auch mit einer vergrößerten HW Implementierung der RT Pipeline werben, die dann nochmal schneller ist.
Nazar
2022-09-08, 17:28:10
@Nazar:
DLSS hat nichts mit RT zu tun. Nochmal darüber nachdenken.
Danke für den Hinweis, dass es DLSS oft nur in Verbindung mit RT gab und immer noch gibt.
Wenn man schon die Finger nicht ruhig halten kann, dann sollte man das Geschriebene im Kontext lesen und verstehen können. :wink:
https://www.nvidia.com/de-de/geforce/technologies/dlss/
Bitte lesen und !!verstehen!!.
robbitop
2022-09-08, 17:31:11
Naja DLSS gibt es mittlerweile schon recht oft ohne RT.
Tomahawk
2022-09-08, 17:31:40
@Nazar
Das ist falsch. Du kannst DLSS ohne RT nutzen.
AnnoDADDY
2022-09-08, 17:36:30
DLSS ist nun wirklich schon seit Ewigkeiten unabhängig von RT nutzbar und in 95% der Fälle auch deutlich besser aussehend trotz höherer Performance. Rasterleistung ist wirklich nicht mehr relevant für die Gesamtperformance ☺️
Timbaloo
2022-09-08, 17:59:40
Das meinte ich ja immer das die RT-leistung stärker als die Rasterizing Leistung steigt. Wär zwar interessant welche GPUs das bei den Graphen sind aber CP2077 dürfte da bei 4k nativ/max wohls erstmal in den 50-60fps Bereich rutschen :D
Sieht komisch aus, erstens sind die "Messwerte" auf eine Nachkommastelle gekürzt (warum?) und zweitens ist das schlechteste Ergebnis (Minecraft) und ds beste Ergebnis (Quake 2) jeweils von quasi reinen RT-Renderern wo die Raster-Leistung kaum einen Einfluss haben sollte. Passt zumindest nicht in mein Weltbild.
Mal schauen ob AMD jetzt mit rdna3 einfach nur level 3 umsetzt wie NV mit Turing/Ampere oder man gleich antizipiert, dass die Konkurrenz einen draufsetzt und man das selbst auch tut.
Mein Bauchgefühl sagt mir, dass RDNA3 mit den fetten Caches uns gut (positiv) überraschen wird was RT-Performance angeht. Außer sie verkacken es wirklich wieder mit den RT-Einheiten...
Troyan
2022-09-08, 18:05:22
Welchen "fetten Cache"? Laut Gerüchten wird Lovelace da sogar mit dem modernen richtigen Cache überlegen sein.
BlacKi
2022-09-08, 18:34:27
Welchen "fetten Cache"? Laut Gerüchten wird Lovelace da sogar mit dem modernen richtigen Cache überlegen sein.jaber infinity smart cache, nv bekommt ja nur den RTX dumb cache.
robbitop
2022-09-08, 19:04:19
@Timbaloo
Naja der Cache wird offenbar eher kleiner als bei RDNA2 per flop. Aber ja helfen tut es schon. Aber am Ende braucht es aber eben auch einen höheren Grad der Umsetzung in HW.
robbitop
2022-09-08, 19:05:03
Welchen "fetten Cache"? Laut Gerüchten wird Lovelace da sogar mit dem modernen richtigen Cache überlegen sein.
Inwiefern das?
basix
2022-09-08, 23:32:37
jaber infinity smart cache, nv bekommt ja nur den RTX dumb cache.
Made my day :D
Thunderburne
2022-09-09, 09:37:33
https://videocardz.com/newz/alleged-geforce-rtx-4090-gpu-runs-at-3-0-ghz-scores-20k-points-in-timespy-extreme
Neurosphere
2022-09-09, 10:26:46
Wäre das nicht ziemlich genau da wo sie auch bei den leaks eingeordnet wurde?
Linmoum
2022-09-09, 10:32:00
Mich wundern eher nur ~20k trotz 3GHz. Kopite hatte ja angedeutet, dass deutlich mehr TSE drin ist bei der 4090 als die von ihm genannten 19k.
Bei 3GHz werden das sicherlich auch nicht nur die 450W gewesen sein.
wolik
2022-09-09, 10:51:06
Danke für den Hinweis, dass es DLSS oft nur in Verbindung mit RT gab und immer noch gibt.
Wenn man schon die Finger nicht ruhig halten kann, dann sollte man das Geschriebene im Kontext lesen und verstehen können. :wink:
https://www.nvidia.com/de-de/geforce/technologies/dlss/
Bitte lesen und !!verstehen!!.
DLSS zum 100 % kann ohne RTX verwendet werden. Ich kenne kein Spiel, bei dem dies nicht möglich ist.
Dazu viele Spiele haben DLSS und kein RTX.
AffenJack
2022-09-09, 10:54:41
Mich wundern eher nur ~20k trotz 3GHz. Kopite hatte ja angedeutet, dass deutlich mehr TSE drin ist bei der 4090 als die von ihm genannten 19k.
Bei 3GHz werden das sicherlich auch nicht nur die 450W gewesen sein.
Ist das bei Timespy nicht meist so, dass die GPUs da eher höher takten als der Boosttakt. Die 3090 hat doch auch 1700 Boost, aber ich meine in Timespy takten die mit 1900-1950 mhz? Je nachdem, wie Lovelace aufgebaut ist, kann der Abstand da vielleicht noch größer sein, je nach Workload.
Linmoum
2022-09-09, 11:13:27
In vielen Spielen siehst du auch (deutlich) mehr als die offiziellen 1695MHz. Das ist normal, bei AMD ist der Boost auch nicht das Ende der Fahnenstange.
Das ist mehr eine Art Mittelwert als eine Maximalangabe.
Neurosphere
2022-09-09, 11:41:26
Trotzdem kann man nicht beurteilen ob die 3Ghz nun auf normalem Wege oder durch OC erreicht worden sind.
Platos
2022-09-09, 11:43:47
https://videocardz.com/newz/alleged-geforce-rtx-4090-gpu-runs-at-3-0-ghz-scores-20k-points-in-timespy-extreme
Ist das Ergebnis komplett default oder schon übertaktet?
Auf jeden Fall denke ich, dass der Lüfter auf 100% oder so läuft. 65-70° für ein Enthusiastenmodell ist schon seeehr ungewöhnlich. Das ist unnötigen Aufwand für nvidia. Oder aber es war irgendwie ein benchtable mit vlt. sogar noch nem Gehäuselüfter direkt auf die GPU gerichtet oder so. Dann ginge das vlt. In einem Gehäuse wären es dann 70-75°.
Aber grundsätzlich ist es genau dort, wo erwartet. Kopite sagte, deutlich mehr wie 19k, was ja logischerweise 19.X bedeutet, wobei X eben eine hohe Zahl sein soll. Wären es lockere 20k oder gar 21k gewesen, hätte er nicht die Zahl 19k verwendet.
Gut möglich aber, dass es schon leicht übertatktet ist. Es soll ja mit Luft gekühlt sein. Warum sagt der Leaker nicht einfach, es ist alles default? Nein, er sagt, wie gekühlt wurde, das könnte einen Hinweis darauf sein, dass es OC war.
Tomahawk
2022-09-09, 11:45:38
Anderes Thema: Dass nur die Preise von 3080 Ti und darüber gesenkt wurden, ist leider auch ein Zeichen, dass eher nur die 4090 vorgestellt wird
Platos
2022-09-09, 11:50:11
Das ist aber auch der schon lange bestehende Gerüchtestand. Also nix neues.
Für uns nichts schlechtes. Man wird ja wohl ~3 Monate warten können. Es ist positiv für uns. Nvidia hat schon längst mit der Produktion begonnen, die können nicht stornieren. Ergo werden sie dann ne hohe Kapazität haben und das bedeutet, dass die Wahrscheinlichkeit hoch ist, dass es kein Ausverkauf gibt.
Allerdings warte ich immer noch auf die Mining-Schwemme.
DrFreaK666
2022-09-09, 12:39:54
Wieso ist das positiv, dass man länger auf preiswertere Karten warten muss?
Platos
2022-09-09, 12:46:39
Wieso ist das positiv, dass man länger auf preiswertere Karten warten muss?
Positiv, weil nvidia offensichtlicherweise auf den Dingern sitzen bleibt und je länger das dauert, desto besser wird der Preis.
wolik
2022-09-09, 12:55:47
Positiv, weil nvidia offensichtlicherweise auf den Dingern sitzen bleibt und je länger das dauert, desto besser wird der Preis.
Das kann man von der goldenen RTX Titan nicht behaupten.
r3ptil3
2022-09-09, 12:58:50
Bei 3GHz werden das sicherlich auch nicht nur die 450W gewesen sein.
Das dachte ich mir auch gerade.
ATX 3.0 1000W+ Netzteil wohl Pflicht, wenn man absolut sicher gehen will.
Ich frage mich gerade was man vor über 10 Jahren für ein Netzteil hatte mit einer GTX 590, mit der die Gesamtaufnahme des Systems schon bei weit über 600W war (ohne OC!).
https://i.ibb.co/SmvM7kB/image.png
vinacis_vivids
2022-09-09, 13:02:33
4090: 16384 Cores, 3,0Ghz ~ 98.3 Tflops fp32
20k Score bedeutet 5 Tflops pro 1k Score.
6900XT: 5120 SP, 2,8Ghz ~ 28.6 Tflops fp32
12,4k Score bedeutet 2,3 Tflops pro 1k Score.
Ada ist was Rasterizing angeht vermute ich auf dem Level der Vega uArch. Da wird dermaßen viel Energie für wenig Leistung verballert, das ist einfach nicht ökonomisch.
Vermutlich takten die Tensor-Cores/RT Cores auch beim Raster mit hoch und verballern zusätzlich Energie. Das ist einfach schwach. NV muss das Zeug, was nicht läuft einfach mal ausschalten.
robbitop
2022-09-09, 13:25:56
Es ist absurd zu denken, dass NV mit einer brandneuen uArch (grundsätzlich meine ich- nicht in diesem 3dmark leak) auf Vega Level (durchsatznorniert!) liegen sollte - insbesondere wenn man bedenkt, dass man da seit 6 Jahren deutlich drüber liegt.
Mit Ampere gab es tatsächlich eine Regression (pro Flop aber nicht pro Transistor -aber auch weit entfernt von Vega) weil man den fp durchsatz pro SM verdoppelt hat aber ohne einiges von der Kontrolllogik zu verdoppeln. Es ist sehr wahrscheinlich, dass Ada genau da anssetzt.
Ich vermut
Edgecrusher86
2022-09-09, 13:26:11
1.) Raster wird immer unwichtiger
2.) Vega? Dein Ernst?
3.) Die Architektur wird dann um Welten effizienter sein als etwa GA im 10nm+ Prozess, wenn die Karte im Bench 450W max. gezogen hat, was der Leaker schrieb. Selbst gedrosselt auf 200W oder weniger total war Vega nicht effizient gegenüber Pascal - das sage ich als ex. Vega64 UV User. :)
;)
robbitop
2022-09-09, 13:35:59
Für gute RT Leistung brauchst du auch gute Rasterleistung (zumindest bei aktuellen Renderpipeline). Beides ist wichtig.
Troyan
2022-09-09, 14:41:58
Inwiefern das?
L2 Cache gegen L3 Cache.
nVidia benötigt kein Puffer, weil sie seit HPC-Ampere den L2 Cache geschafft haben aufzubohren und die Geschwindigkeit zu steigern.
Tesseract
2022-09-09, 14:48:48
L2 und L3 sagen nichts über die geschwindigkeit aus, nur wieviele stufen es darüber noch gibt. größere caches sind in der regel langsamer als kleinere, egal in welchem level sie liegen. welcher am ende wie schnell ist ist eine architekturspezifische detailfrage.
Troyan
2022-09-09, 14:50:33
L2 und L3 sagen nichts über die geschwindigkeit aus, nur wieviele stufen es darüber noch gibt. größere caches sind in der regel langsamer als kleinere, egal in welchem level sie liegen. welcher am ende wie schnell ist ist eine architekturspezifische detailfrage.
Die Zeiten sind vorbei. HPC-Ampere+ hat L2 Cache Geschwindigkeit bei L3 Cache Größe. Möglich durch die Crossbar zwischen den Partitionen.
Tesseract
2022-09-09, 14:57:21
nochmal: es gibt keine "L2 geschwindigkeit" oder "L3 größe". dass ein L2 so groß sein kann wie ein L3 einer anderen architektur kann durchaus sein, das allein sagt aber nichts darüber aus welche cachehierarchie in ihrer gesamtheit schneller ist.
Platos
2022-09-09, 14:59:28
welcher am ende wie schnell ist ist eine architekturspezifische detailfrage.
Aus meiner Sicht aber die interessanteste Frage bei Lovelace. Wie schnell ist der Cache im Vergleich zur AMD-Version. Das finde ich deutlich interessanter, wie die Frage, obs nun paar MB mehr oder weniger sind (sind ja bei beiden sehr viele MB).
Aber bezüglich L-Bennenung: Fängt nvidia bzw. amd überhaupt bei der gleichen Zahl an? Manche beginnen ja mit 0 und andere mit 1.
BlacKi
2022-09-09, 15:09:17
Ist das Ergebnis komplett default oder schon übertaktet?
Auf jeden Fall denke ich, dass der Lüfter auf 100% oder so läuft. 65-70° für ein Enthusiastenmodell ist schon seeehr ungewöhnlich. Das ist unnötigen Aufwand für nvidia. Oder aber es war irgendwie ein benchtable mit vlt. sogar noch nem Gehäuselüfter direkt auf die GPU gerichtet oder so. Dann ginge das vlt. In einem Gehäuse wären es dann 70-75°.
Aber grundsätzlich ist es genau dort, wo erwartet. Kopite sagte, deutlich mehr wie 19k, was ja logischerweise 19.X bedeutet, wobei X eben eine hohe Zahl sein soll. Wären es lockere 20k oder gar 21k gewesen, hätte er nicht die Zahl 19k verwendet.
Gut möglich aber, dass es schon leicht übertatktet ist. Es soll ja mit Luft gekühlt sein. Warum sagt der Leaker nicht einfach, es ist alles default? Nein, er sagt, wie gekühlt wurde, das könnte einen Hinweis darauf sein, dass es OC war.
die infos die er droppt sind, 3ghz 450w tdp. wenn ich das richtig interpretiere, soll der luftkühler so groß sein, das er nicht in ein midi gehäuse passt. der kühler sieht aus, als könnte er 600-800w wegkühlen.
generell kann es nichtmehr lange dauern. ich könnte mir vorstellen das der launch kein paperlaunch ist zumindest für die 4090. 3 händler listen jetzt schon?
ich vermute stark, dass das ein OC modell ist, also mit werks OC, zb. die geleakte gigabyte 4090 master, aber mit standard TDP und lüfterkurve.
wer erinnert sichnoch an den fast 4 slot kühler von gigabyte? ich vermute, die übertreiben weiter, wer weiß, vl sogar 5slot luftkühlung.
450w könnten genug sein, die doch stark beschnittene karte, im 3dmark nicht zu limitieren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.