Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 16./17. Oktober 2018
Leonidas
2018-10-18, 10:06:10
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1617-oktober-2018
Gast Ritis
2018-10-18, 12:16:02
Das ist schon etwas seltsam. In der weiteren Vergangenheit wurde jedes Fitzelchen Eye-Candy als Argument für teure neue GPUs zu tode diskutiert, nur wenn jetzt hybrid Raytracing mit mehr als FullHD und mehr als 60 FPS nicht möglich ist wird es als irrelevant dargestellt. In den letzten 1-2 Jahren war plötzlich ausschliesslich hohe FPS bei 4k das einzig Wahre, warum man sich teure GPUs kaufen muss. G-Sync und DX-Features sind ja leider völlig als Argument weggebrochen.
Dabei ist doch der ganze Trend im High-End in Richtung 4k in erster Linie durch die Problematik in der Kantenglättung gepushed worden. Ohne Verstand wird dann weiter mit Supersampling und Antialiasing getestet ohne zu bewerten, ob das in dem Masse noch notwendig ist. Mir scheint in der Praxis verzichten die 4k Gamer aber auf diese Ressourcenfresser weil es dort optisch kaum noch relevant ist. Ich bin öfters das Totschlagargument lieber 100 FPS als Adaptive-Sync gestolpert.
Ein sauberes FullHD Signal ist auf einem Monitor mit höherer Auflösung kein Beinbruch. Bei hybrid Raytracing gibt es die Chance auf korrekte Schattenwürfe und ordentliche Kanten mit Lichtbrechung. Je nach Spieletitel wird das sicherlich besser rüber kommen als 4k mit Fake-Rasterizereffekten. Mit FreeSync/G-Sync sind kleine Einbrüche für Normalsterbliche nicht zu erkennen, gutes hybrid Raytracing wahrscheinlich aber schon.
In ein paar Monaten darf man dann auf erste ordentlich implementiert Raytracing-Effekte hoffen. Man wird sehen wie sich dann die Preise und Konkurrenz zur RTX-Serie neu sortiert haben.
Ich bin deshalb mal gespannt wie lange diesmal die Fanbois benötigen zu verstehen, dass künftig andere Argumente als hohe Hz Zahlen und Auflösung geeignet sind die "falschen" Käufer anzumachen die einem den Kauf einer RTX madig machen wollen. Ob diese Fanbois bald mehr Verständnis für andere Präferenzen zeigen weil es diesmal um Pascal vs. Touring geht? ;D
5,5Ghz auf allen 8 Kernen ?
Mit was für einer Kühlung wurde das realisiert ?
Wenn der 9900K, 9700K unter Wasser zuverlässig 5,5Ghz erreicht
könnte ich schwach werden :rolleyes:
m.f.g. JVC
Leonidas
2018-10-18, 13:34:54
Bei 5.5 GHz war das durchgehend Wasser. Aber die Werte kommen wohl aus der OC/Test-Szene, ergo wird da sicherlich so lange probiert werden, bis es geht. Kaum ein allgemeingebräuchlicher Wert. Morgen wissen wir mehr.
Danke :)
"nur Wasser" lässt ja schon fast hoffen :D
( hm 5,4Ghz ... klingt irgendwie nicht so toll :freak: )
*meno reiss dich zusammen* ... ob ich den 7nm AMD noch erwarten kann :rolleyes:
( und ob der dann wirklich zuverlässig auf über 5Ghz geht weis man ja auch noch nicht )
Hab ja leider noch so doofe Spiele die nur "einen Kern" ansprechen ;(
m.f.g. JVC
In ein paar Monaten darf man dann auf erste ordentlich implementiert Raytracing-Effekte hoffen. Man wird sehen wie sich dann die Preise und Konkurrenz zur RTX-Serie neu sortiert haben.
Du träumst vor Dir hin...in ein paar Monaten, lachhaft.
Und sonst:
Kauf dir einfach mal einen 32" Bildschirm in 1080p, dann weißt du worüber sich die meisten Leute echauffieren.
Die Zeiten in denen man mit 1200$ GPUs vor einem 17" saß sind lange vorbei. Ich habe einen gesync'ten in 4K Auflösung und HDR. Nimmer schafft Turing darauf nativ Raytracing in Echtzeit kaufen zu lassen und genau das hat nVidia beworben, weil es sonst an Turing nichts zu bewerben gibt. Hätte man die Fläche die man für dediziertes RT verschwendet, in Rechenleistung umgesetzt, wäre 4K in echten 10 oder 12bit plus echtem HDR machbar gewesen (hohe Nits bei Gsync HDR). Dabei wäre sicher auch der eine oder andere RT Effekt auf Compute laufbar (DXR braucht Tensor- oder RT Cores nicht) und man müsste nicht Aufgaben für seine proprietären Cores suchen, die man sich von Midrange Fans bezahlen lässt (RTX2070). So dümpelt man mit 1080p umher und versucht das mit "Matschgrafik" besser zu rendern. Schwachfug hoch drei...
Du kannst auch gerne auf einem 4k mal 1080p schalten und dir ansehen wie bescheuert das aussieht! Ich setzt mich nicht mehr vor so eine Schei* Lochmaske hin und zähle Fliegengitter. Das hat nVidia bei seiner ganzen RT Euphorie wohl vergessen? Wo ist 1080p irgendwas Enthusiast? Das hat jeder Möchtegern Kiddiedödel auf seinem Schreibtisch zu stehen, von Mutti und Pappa finanziert.
TU ist ein Flopp, da hilft auch das ganze Gesuche nach irgendwelchen Strohhalmen nicht. RT wenn überhaupt Zukunftsgeseier. Niemand weiß ob es sich im Gamingbereich wirklich durchsetzt, derzeit sieht es eher nicht danach aus. Paar Demos gabs in der Vergangenheit von anderem Krempel auch schon, nur durchgesetzt hat es sich letztlich nicht. NVidias Werbung war mal wieder völlig übertrieben, typisch Jensen (erinnert mich an Steve Jobs). Dort hat man doch die Tuchfühlung zur (Fan-) Basis längst verloren. Geht nur noch um Kohle und wie man die Leute darum erleichtert, schon lange nicht mehr um Sinnhaftigkeit, nach dem Motto: "Was interessiert mich der Quatsch den gestern erzählt habe...". Nachhaltigkeit sieht anders aus.
RT ist kein Meilenstein für Gamer, das bombt den, der es ausführen kann in die grafische Auflösungssteinzeit zurück, nur um ein paar Sonnenstrahlen und Schatten echter darzustellen, die einem in Bewegung und bei Shooter-Gaming eher nicht auffallen. Oder starrst du den ganzen Tag deinen Schatten an und bewunderst dich im Spiegel?:rolleyes:
SotTR sieht auch ohne Raytracing und HDR on mit hohem Offset in 4K wunderbar aus. Da braucht es kein RT, dass einem die Performance stiehlt und das Bild nachträglich mit DLSS zu Matsch werden lässt und bei 1080p vor sich hinruckelt. Das steht klar gegen die Sinnhaftigkeit hoch aufgelöster Displays bei hoher Pixeldichte. Irgendein Gimmick das einem 50% Aufpreis wert sein soll.
RT hat seine Daseinberechtigung bei der Filmindustrie, in grafischen Bereichen und professionellen Gebieten. Es braucht noch sehr viel Entwicklungszeit und vor allen die mehrfache Rechenpower als derzeit, um es flüssig darstellbar im Gamingbereich zu etablieren. Das wird für den Großteil kaum erschwinglich sein. Wer kauft sich zu einem 300 EUR Monitor eine 1350 Euro Grafikkarte? Kein Mensch! Jensen hat bezüglich RT einfach großen Müll gelabert und etwas präsentiert, dass im Hintergrund vier Quadros vorberechnet hatten. Nur bei Darstellung hatte eine Gamer RT Karte schon Schwierigkeiten das überhaupt mit 20-25fps wiederzugeben, bei tot optimierten Benchmarks wie sie die PCGH doch wieder als Rechtfertigung für die hohen Preise der RT Hardware vorhalten (nach CB die FE Pascal mit Custom TU vergleichen, der laienhaftste Laden der sich selbst als renommierte Fachpresse abbildet). Traurig - da sieht man mal was NDAs bewirken.
Man beschei*t hier klar die Nvidia Early Adoper um ihr Geld, indem man Hoffungen weckt, RT wäre das Allheilmittel für Echtzeitrendering. Da kann man Leo nur voll zustimmen, wobei er das redaktionell unspektakulärer rüber bringt. AMD zerriss man wegen fehlender allgemeiner Unterstützung ihrer Primitive Shader durch den Treiber in der Luft, weil sie den Pfad aufgaben. NVidia macht was sie wollen, reden was sie wollen (und sei es noch zu unglaubhaft), reglementieren wen und was sie wollen; und bringen dabei einen hochpreisigen Bulls*it nach dem anderen. Alles egal...
Ich bin mal gespannt wann NVidia ankündigt, dass man Gaming Hybrid RT erst mal wieder at acta legt und wie das Bedauern der Fanbase dann ausfällt. Vor allem dann, wenn Pascal abverkauft ist und die Preise ins Nirvana fallen, man damit die im Markt bereist befindliche, teuer erstandene RT Hardware massiv entwertet und gleich mit 7nm um die Ecke kommt.:biggrin:
Nur ein Teil der Effekte laufen mit voller Auflösung. Warum wird bei Raytracing so auf Aufstand deswegen gemacht?
Turing ist beim Raytracing nur etwa so schnell wie eine mobile PowerVR GPU vor fast 3 Jahren und verbraucht dafür 100 mal mehr Strom trotz besserer Fertigung. Von einem dedizierten HW-Raytracer mit >200 Watt Verbrauch, einem Vielfachen der Chipfläche, längerer Entwicklungszeit und Angesichts des vielfach höheren Budgets, das Nvidia zur Verfügung steht, hätte ich ein Vielfaches an Raytracing-Performance erwartet. Ich bin mal gespannt, ob AMD und Intel das besser hinbekommen.
etp_inxession
2018-10-18, 16:40:05
Wie ist das jetzt bei der 9xxxer Serie mit den Sicherheitslücken?
9900k mit HT, wird wahrscheinlich genau so anfällig wie seine Vorgänger.
9700k ohne HT, wird wahrscheinlich der SweetSpot der 9xxxer Serie .. aber eben ohne HT.
Bedeutet, der 2700x wird weiter das beste P/L bieten.
Bedeutet, der 2700x wird weiter das beste P/L bieten.
Aber sowas von !
Nur ist die "Vernunft" nicht immer zugegen :freak:
m.f.g. JVC
Die Angaben von Remedy beziehen sich auf FullHD-Auflösung, je nachdem von welcher Auflösung man kommt ist eine entsprechende Reduktion also schon mit "einberechnet".
Zudem macht Remedy offensichtlich auch das "volle Raytracingprogramm" von GI über Schattenberechnung und Spiegelungen und schlüsselt dabei auch noch schön auf wieviel die einzelnen Schritte brauchen.
Viele Spiele werden aber wohl nur einen Teil davon verwenden, und wenn man beispielsweise sieht, dass die Schattenberechnung nur 2,3ms braucht, und auch Shadowmaps nicht gerade günstig sind sieht das ganze schon sehr brauchbar aus.
Gerade Schatten sind meiner Meinung das Wichtigste und sehen bisher trotz aller Fortschritte immer noch eher bescheiden aus, mit gerade mal knapp 5ms für Schatten + GI sieht das Ganze doch sehr brauchbar aus, vor allem wenn man bedenkt dass es sich um Hardware der ersten Generation handelt.
Bei der Abwärme die 8 Kerne mit AVX auf so kleiner Fläche raushauen wird der Knackpunkt die Wärmeübertragung um die Teile zu kühlen.
Sicht man auch schön in US Foren bei geprügelten 2700xern die mit ~1,5V bei @Allcore mit knapp 4400Mhz gefahren werden Die sind selbst bei Wassertemperaturen um die 30°C nicht wirklich kühl unter Last.
Die Physik ist halt Farbenblind.
Ravenhearth
2018-10-18, 19:26:13
Bei den Angaben zu Raytracing sollte man vielleicht noch hinzufügen, dass diese für 1080p auf einer RTX 2080 Ti gelten. Ohne diesen Kontext sind die Angaben nicht zu verstehen. Auf schwächerer Hardware und/oder mit höherer Auflösung erhöht sich die Rechenzeit natürlich.
Bei den Angaben zu Raytracing sollte man vielleicht noch hinzufügen, dass diese für 1080p auf einer RTX 2080 Ti gelten.
Ohne weitere Angaben sind die Werte alle nichts wert.
Lief davon irgendwas asynchron? Wenn nein, warum? Wenn ja, wie viel?
Turing ist beim Raytracing nur etwa so schnell wie eine mobile PowerVR GPU vor fast 3 Jahren und verbraucht dafür 100 mal mehr Strom trotz besserer Fertigung. Von einem dedizierten HW-Raytracer mit >200 Watt Verbrauch, einem Vielfachen der Chipfläche, längerer Entwicklungszeit und Angesichts des vielfach höheren Budgets, das Nvidia zur Verfügung steht, hätte ich ein Vielfaches an Raytracing-Performance erwartet. Ich bin mal gespannt, ob AMD und Intel das besser hinbekommen.
AMD kann über 2 Jahre keine GPU vorweisen die die gtx1080 als custom im punkt Performance sowie Verbrauch schlägt, wie sollen die den auf einmal eine GPU bringen die
* Deutlich schneller ist
* Weniger Verbraucht selbst mit 7 nm
* und on Top da noch RT Einheiten einbauen oder genug Shader cores verbauen die das übernehmen ?
Der Verein hat mittlerweile so einen Rückstand bei den GPUs das wir froh seien können wenn einer der Punkte Konkurenzfahig wird.
Schau dir doch an wie viele Jahre AMD mit Zen1 gebraucht hat um endlich wieder zu Intels Chips auf Level haswell/broadwell E von ~2015 Konkurenzfahig zu werden. Navi wird nicht umsonst für Midrange gemunkelt.
Intels erste GPU wird wohl auch nicht aus dem Stand der alles wegputzer... Selbst Intel schafft es nicht aus dem Stand auf ein Niveau für das AMD und Nvidia Jahre brauchten
Mayhem
2018-10-19, 00:19:56
Turing ist beim Raytracing nur etwa so schnell wie eine mobile PowerVR GPU vor fast 3 Jahren und verbraucht dafür 100 mal mehr Strom trotz besserer Fertigung.
Der 2W Raytracer hatte 150MRays. Ausserdem ist HW-Raytracer nicht gleich HW-Raytracer. Ich denke die GigaRays-Angabe bezieht sich rein auf die Leistungsfähigkeit der Triangle-Intersection. Allerdings muss auch die Beschleunigungsstruktur mit dynamischer Geometrie gut zurecht kommen. Bei den PowerVR Demos seh ich nur Statische.
AMD kann über 2 Jahre keine GPU vorweisen die die gtx1080 als custom im punkt Performance sowie Verbrauch schlägt, wie sollen die den auf einmal eine GPU bringen die
* Deutlich schneller ist
* Weniger Verbraucht selbst mit 7 nm
* und on Top da noch RT Einheiten einbauen oder genug Shader cores verbauen die das übernehmen ?
Der Verein hat mittlerweile so einen Rückstand bei den GPUs das wir froh seien können wenn einer der Punkte Konkurenzfahig wird.
Schau dir doch an wie viele Jahre AMD mit Zen1 gebraucht hat um endlich wieder zu Intels Chips auf Level haswell/broadwell E von ~2015 Konkurenzfahig zu werden. Navi wird nicht umsonst für Midrange gemunkelt.
Intels erste GPU wird wohl auch nicht aus dem Stand der alles wegputzer... Selbst Intel schafft es nicht aus dem Stand auf ein Niveau für das AMD und Nvidia Jahre brauchten
Es geht um die Raytracing-Performance. Wenn bereits vor fast 3 Jahren ein viel kleinerer GPU-Entwickler mit nur ein paar hundert Mitarbeitern in 28nm einen etwa um den Faktor 100 effizienteren Raytracer als Turing in 12nm entwickelt, kann man von den viel größeren HL-Konzernen nicht weniger erwarten. Wann AMD und Intel jeweils ihren ersten dedizierten Raytracer veröffentlichen, darüber habe ich überhaupt nichts geschrieben. Jedoch erwarte ich von einem solchen deutlich mehr als das, was Nvidia vorgestellt hat.
Mit besserer Fertigung, mit mehr als 100 mal höherem Verbrauch, einem Vielfachen der Chipfläche und Taktrate müsste auch ein Vielfaches der Raytracing-Performance zu erwarten sein. Hybrid-Rendering müsste da eigentlich überflüssig werden:
https://www.youtube.com/watch?v=uxE2SYDHFtQ
Der 2W Raytracer hatte 150MRays. Ausserdem ist HW-Raytracer nicht gleich HW-Raytracer. Ich denke die GigaRays-Angabe bezieht sich rein auf die Leistungsfähigkeit der Triangle-Intersection. Allerdings muss auch die Beschleunigungsstruktur mit dynamischer Geometrie gut zurecht kommen. Bei den PowerVR Demos seh ich nur Statische.
Du irrst dich. Der 2W PowerVR Raytracer hat 300 MRays. Jensens "jijarays" sind reines Marketing. Die PowerVR Demos zeigen auch dynamische Geometrie:
https://www.youtube.com/watch?v=rjvaxcM4g7c&index=6&list=PLnOXj03cuJjmRN_Y8aN0vUH_jNbjyDXjB
https://www.youtube.com/watch?v=ND96G9UZxxA
Ich denke die GigaRays-Angabe bezieht sich rein auf die Leistungsfähigkeit der Triangle-Intersection.
Die Gigaray-Angabe bezieht sich auf eine reale Messung unter einer von Nvidia definierten Last.
AMD kann über 2 Jahre keine GPU vorweisen die die gtx1080 als custom im punkt Performance sowie Verbrauch schlägt, wie sollen die den auf einmal eine GPU bringen die
* Deutlich schneller ist
* Weniger Verbraucht selbst mit 7 nm
* und on Top da noch RT Einheiten einbauen oder genug Shader cores verbauen die das übernehmen ?
Der Verein hat mittlerweile so einen Rückstand bei den GPUs das wir froh seien können wenn einer der Punkte Konkurenzfahig wird.
Schau dir doch an wie viele Jahre AMD mit Zen1 gebraucht hat um endlich wieder zu Intels Chips auf Level haswell/broadwell E von ~2015 Konkurenzfahig zu werden. Navi wird nicht umsonst für Midrange gemunkelt.
Intels erste GPU wird wohl auch nicht aus dem Stand der alles wegputzer... Selbst Intel schafft es nicht aus dem Stand auf ein Niveau für das AMD und Nvidia Jahre brauchten
Zuerst mal kommen sie mit 7nm Vega Ende 2018 (und da haben sie alles verpulvert was ihnen möglich war, volles Risiko!).
Was hat Nvidia da vorzuweisen, anstatt ein Abonnementmodell um ihre AI/KI Rechennetzwerke durch Gamer sinnhaft auszulasten?
Nvidia ist ziemlich arm dran, weil ihnen zu großen Teilen fehlt was man z.Bsp. für DLSS Berechnungen braucht, Verbreitung ihrer RT Hardware und viele Konfigurationen im Rechenumfeld der Nutzer unter entsprechender Anwendung! Oder wer hat hier geglaubt das dies alles von Nvidia selbst kommt? Schon allein das macht RT DLSS zur Milchmädchenrechnung und ohne wirds 'ne Ruckelshow.
AMD lehnt sich zurück und wertet Konsolendaten aus, erkennst Du den Unterschied? Die legen gar keinen Wert darauf nV-Enthusiast zu toppen, weil nach oben raus alles viel zu teuer wird, damit der Aufwand immens und ihnen das eh keiner abkauft. Die bringen keinen 2080ti Konter. Die lehnen sich schön zurück, konzentrieren sich auf ihr Midrange bis Premium (Highend) und lassen Dich schön bluten, damit du Nvidias überteuerten Krempel kaufst. Ist die beste Methode aufzuzeigen wo das endet.
Hier scheint im Übrigen einigen zu fehlen wie Hybrid RT + DLSS überhaupt funktioniert und auf was es ankommt.
@Gast 2018-10-18, 21:30:21
Es geht um die Raytracing-Performance. Wenn bereits vor fast 3 Jahren ein viel kleinerer GPU-Entwickler mit nur ein paar hundert Mitarbeitern in 28nm einen etwa um den Faktor 100 effizienteren Raytracer als Turing in 12nm entwickelt, kann man von den viel größeren HL-Konzernen nicht weniger erwarten. Wann AMD und Intel jeweils ihren ersten dedizierten Raytracer veröffentlichen, darüber habe ich überhaupt nichts geschrieben. Jedoch erwarte ich von einem solchen deutlich mehr als das, was Nvidia vorgestellt hat. Mit besserer Fertigung, mit mehr als 100 mal höherem Verbrauch, einem Vielfachen der Chipfläche und Taktrate müsste auch ein Vielfaches der Raytracing-Performance zu erwarten sein. Hybrid-Rendering müsste da eigentlich überflüssig werden.
@Mayhem
Der 2W PowerVR Raytracer hat 300 MRays. Jensens "jijarays" sind reines Marketing. Die PowerVR Demos zeigen auch dynamische Geometrie (https://www.youtube.com/watch?v=ND96G9UZxxA).
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.