Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Welche Chance wird MultiChip-Lösungen noch gegeben?
Leonidas
2017-01-13, 06:03:02
Link zur News:
https://www.3dcenter.org/news/umfrage-auswertung-welche-chance-wird-multichip-loesungen-noch-gegeben
MadManniMan
2017-01-13, 07:34:39
Eine Kleinigkeit vergisst Du: VR könnte unter Umständen dafür sorgen, dass auch prinzipielle Multichip-Verweigerer auf einmal einen Nutzen sehen - zumal mit neueren APIs, die generell den Support (wieder) verbessern sollten.
MadManniMan
2017-01-13, 07:53:00
Disclaimer: bisher war ich auch immer sehr, sehr weit von SLI und Crossfire entfernt und würde es auch jedem ausreden - es ist also ein reines Gedankenspiel.
Geldmann3
2017-01-13, 08:11:38
Von mir würde Vega X2 eventuell eine Chance bekommen, wenn der Preis bei unter 1000€ liegt und die praktische Durchschnittsperformance 25% über der Titan XP liegt. Da kommt es natürlich ganz darauf an, wie viele Spiele in Zukunft Multi-GPU unterstützen. Mit DX12 gibt es zudem theoretisch die Hoffnung auf die Lösung der Framepacing Problematik.
Ich denke in Zukunft gibt es vielleicht gar keine andere Möglichkeit mehr, mehr GPU-Leistung zu bekommen, als weitere Chips zu verbauen. Ich denke auch deshalb hält AMD an M-GPU fest. Ich vermute es ist ein Fehler von Nvidia, sich im Gaming-Segment davon zu entfernen, denn die Arbeit muss später wieder aufgeholt werden.
Ob die Entwickler wollen oder nicht, bald wird es finanziell nicht mehr tragbar sein, mehr Shader Einheiten auf einen Chip zu pressen und man wird eher mehrere Chips verbauen. Erinnert mich an die Einführung der Multicore- CPUs. Bei den Grafikkarten wird es vielleicht noch 4, 6, 8 oder gar 10 Jahre dauern, aber irgendwann ist es soweit.
Die Grafikchipentwickler sollten lieber früher als später damit beginnen das den Entwicklern schmackhaft zu machen. Beispielsweise könnte man langsam schon mal damit beginnen kleine Co-Grafikprozessoren zu verbauen, auf die bestimmte Renderschritte wie Physik ausgelagert werden können und dieses Konzept dann langsam ausbauen. Natürlich werden die Entwickler immer lieber die große GPU für alles verwenden, weil es einfacher und universaler zu programmieren ist, daher sind die PhysX Karten damals auch gescheitert, wovon Nvidia sicher noch ein Trauma hat. Doch an den Grenzen der Miniaturisierung wird es wahrscheinlich wieder dahin zurückgehen.
CD-LABS
2017-01-13, 09:10:46
Diese Position von wegen "an der Fertigungsgrenze wird Multi-GPU Mainstream" kann ich nach wie vor so gar nicht nachvollziehen. Da wird ja grundsätzlich davon ausgegangen, dass sich die Hersteller dann andere Möglichkeiten suchen als einen übergroßen Chip zu produzieren und statt dessen mehrere andere verbinden. Meinetwegen, aber wieso sollten diese MultiChipModule auch unbedingt MultiGPU bedeuten? Da fehlt mir irgendwie das schlagende Argument für...
...es wären ja schließlich auch Tonnen an anderen Konzepten denkbar.
HeinLo
2017-01-13, 09:22:04
Der Vergleich mit Multicore bei CPUs hinkt gewaltig. GPUs waren schon immer extreme Multicore-Architekturen und auch bei CPU sind Mehrsockelsysteme sehr selten geworden, bei Workstations fast nicht mehr anzutreffen.
Tatsächlich ist VR der wichtigste Faktor dass Dual-GPU sich plötzlich lohnt. Es braucht nur eine Implementation im Treiber und Framework der Headset-Hersteller und schon dreht sich das Fähnchen der betroffenen Foristen im Wind.
Allerdings muss man auch sagen, dass Oculus zunächst nur auf DX11 Support gegangen ist, die müssen erst mal den Schritt nach DX12 und Vulkan machen. Gut möglich, dass Dual-GPU erst danach/damit kommt.
Für Auflösungen jenseits der 4k habe ich auch Zweifel, dass dort Single-GPU Lösungen angeboten werden. Der potentielle Markt wird dort sicherlich sehr überschaubar bleiben, denn für erkennbare Unterschiede braucht es dann viel grössere Panels, da werden immer weniger Enthusiasten mitgehen (können).
Hmm sehe die VR und LL API Geschichte irgenwie anders.
Wieviel % der User besitzen ein VR Headset , die Verkaufszahlen sind jaeher mau ?
Wieviel % davon nutzen es regelmäßig und dauerhaft ?
Auf den Messen und von seiten der Hersteller die etwas verkaufen wollen wird das Thema großgeredet ,ob die Benutzer das aber annehmen ist garnicht abzuschätzen.
Es gibt sicher Genre wie der Simulationsbereich Flugsims , Racing , realistische Militärsimultionen ala ARMA 3 mit ACE etc. gemoddet wo das VR headset super hineinpasst ja sogar für Adventure kann ichs mir gut Vorstellen.
Aber das sind eher nieschen Produkte , das 0815 CoD, BF, CS kiddy schreit nach mehr als 144hz null Inputlagt um ja die eigenen gottgleichen Skillz nicht zu beschneiden.
Die ganze DX12 Geschichte ist auch mehr als fraglich selbst DICE,EPIC und UNITY können bisher keine brauchbare Singelgpu DX12 implementierung vorweisen die wirklich nen entscheidenen Mehrwert bringt von MultiGPU ganz zu schweigen.
Diese Firmen stellen / decken einen Großteil der verwendeten Engins in Spielen ab und sind bei der Featureliste vorn mit dabei.
Die Erweiterten Möglichkeiten mit DX12 und Vulkan bedeuten halt im Umkehrschluss auch mehr Verantwortung / Arbeitsaufwand / Fähigkeiten die der Entwickler bereitstellen muss und das macht mir eher sorgen.
Kleines Beispiel , Studio Wildcard mit ihrem ARK ,ein riesen Hype, unmengen von aktiven Spielern aber technisch total verhunzt trotz next gen UE4.
Performance unter aller sau gemessen an der Optik,KI,Physik
Bugs ohne Ende , Aber DLCs schon im Early Acces Status verkloppen. Und sie kommen damit durch also warum etwas ändern?
DX12 Support war schon für okt 2015 angekündigt und ist immernoch nicht implementiert weil dem eigendlichen Entwickler einfach die Fähigkeiten fehlen und EPIC auch gemerkt hat das das ganze wohl bissel länger dauert an ihren Unterbau zu takkern( Trello roadmap verschiebt die benötigte zeit immer weiter und mittlerweile wird schon über ein Jahr dran geschaubt) .
Wenn ich mir das alles so ansehe sind für mich persönlich weder VR noch DX 12/ Vulkan MultiGPU Katalysatoren.
Evtl seh ich das alles nen bissel pessimistisch aber im allgemeinen scheint mir der Anspruch an das eigene Softwareprodukt und seine technische Umsetztung im Spiele Bereich immer weniger Zeit & Aufwand wert zu sein.
Ich denke in Zukunft gibt es vielleicht gar keine andere Möglichkeit mehr, mehr GPU-Leistung zu bekommen, als weitere Chips zu verbauen. Ich denke auch deshalb hält AMD an M-GPU fest. Ich vermute es ist ein Fehler von Nvidia, sich im Gaming-Segment davon zu entfernen, denn die Arbeit muss später wieder aufgeholt werden.
Ob jetzt mehr einzelne GPUs in einem MultiGPU-System oder auf einem Interposer ist ja kein großer Unterschied.
Nvidia schafft das nur ab um seine Mondpreise für einzelne GPUs verlangen zu können. Das würde sonst keine Sau bezahlen, wenn zwei undervolting/overclocking GP106 genauso schnell wären wie eine 1080-TXP. Die schaffen das also gezielt ab, um Gewinne zu maximieren.
Wenn AMD dort Konkurrenz macht, sind sie ruck zuck wieder da und kassieren wieder ab. Leider sind AMDs MultiGPUs mehr professionellen Zwecken dienlich und daher auch unerschwinglich. Vega Dual wird wohl eher für 1500 weggehen. Für eine XT wird man schon 750 berappen müssen, damit wäre AMD in Segment einzelner GPUs immer noch gut aufgestellt und reichlich billiger, wenn Bandbreite wirklich zählt, so wie Kodura das angekündigt hat. Der Aufwand für ein Dualboard ist aber deutlich höher und bekommt man das kaum verkauft, daher wird das auch immer teuer bleiben um die Kosten für deren Entwicklung irgendwie reinzubekommen. Da sehe ich gerade 3,2% und das auf dem Level von 3dcenter, in der wirklichen Welt wird die Begeisterung wohl deutlich niedriger ausfallen. Da könnte man nur über den Preis gehen, was sich dann aber nicht rentiert.
Zuletzt soll das Vega ES Sample sogar 80fps in Doom geschafft haben, dass wäre ja fast so schnell wie eine TXP die 1400 kostet. Da wäre man fast nur halb so teuer wie Nvidia.
300-500 Dollar/Euro für Enthusiast oder Highend GPUs wirds wohl lange nicht mehr geben, wenn überhaupt jemals wieder.
Wer auf eine so pauschale Fragestellung mit einem aboluten 'niemals' antwortet, ist nicht ernst zu nehmen.
Es beweist sich erneut, dass 3DC-Umfragen den Aufwand nicht wert sind.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.