Archiv verlassen und diese Seite im Standarddesign anzeigen : Grenzen bei der Parallelisierung von Grafikberechnungen
boxleitnerb
2012-03-07, 16:21:57
Ich überlege mir gerade Folgendes:
Die Pixelzahl ist seit dem Beginn des 3D-Zeitalters um etwa Faktor 13 gestiegen (640x480 -> 2560x1600). Die Anzahl der Recheneinheiten aber (Pixel/Vertex/Stream/CudaCores) hat sich mindestens vertausendfacht.
Mal angenommen, dieser Trend würde so weitergehen, würde man doch irgendwann an einen Punkt kommen, an dem man mehr Recheneinheiten als Pixel hat. Man kann dann nicht mehr alle Einheiten gleichzeitig beschäftigen, jedenfalls sagt mir das die Logik. Pro Pixel kann doch immer nur eine Operation gleichzeitig ausgeführt werden, weil es Abhängigkeiten gibt und der alte Farbwert für die neue Berechnung benötigt wird.
Was passiert dann? Oder kommen wir überhaupt nicht zu diesem Punkt, weil die "Pixel"zahl mit echtem 3D (Holographie) wieder überproportional ansteigt?
Spasstiger
2012-03-07, 16:25:52
Bei der Rasterisierung werden auch alle Polygone einer Szene abgearbeitet, darüber kann man auch parallelisieren. Kannst du dir wie eine verschachtelte FOR-Schleife vorstellen, außen läuft man über die Polygone, innen über die Pixel.
Und man kann denke ich durchaus mehr als eine Operation pro Pixel gleichzeitig ausführen. Z.B. musst du für anisotropes Filtern mehr als einen Texturfarbwert pro Pixel abtasten und filtern/blenden. Sowas lässt sich gut parallelisieren.
Raytracing bietet sicherlich auch Ansätze, da man deutlich mehr Strahlen werfen kann als Pixel auf dem Bildschirm sind. Für indirekte Beleuchtung muss man beim Raytracing z.B. Strahlen von einem Auftreffpunkt in alle Richtungen werfen (je mehr, desto genauer die Beleuchtung). An einer Stelle in der Renderpipeline werden zwar Materialeigenschaften und Farbwerte der getroffenen Punkte zusammengeführt und ins Pixel geschrieben, aber das Werfen der Strahlen an sich sollte gut parallelisierbar sein.
1080p sind ca. 2 Mio Pixel. Ich sehe in nächster Zeit keine GPUs auf den Markt kommen mit so vielen Recheneinheiten.
Gipsel
2012-03-08, 14:30:37
Sagen wir mal, die 28nm-Generation hat grob 2000 Einheiten, 1080p hat ~2 Millionen Pixel, also Faktor ~1000 = ~2^8. Da ist also noch Platz für 8 weitere Technologiegenerationen.
28 nm => 20 nm => 14 nm => 10 nm => 7 nm => 5 nm => 3,5 nm => 2,5 nm => 1,8 nm
Hmm. Ob wir die 1,8 nm jemals sehen? Ich denke, das Scaling wird spätestens nach den 7 nm irgendwie anders weitergehen müssen. Außerdem haben wir bis dahin mindestens Quad-HD. Oder das Holo-Deck. :D
Edit:
1000 ist natürlich ~2^10 :redface:
Da oben kommen also noch 1,3 nm und 0,9 nm dazu, die selbstredend erstmal ebenso utopisch sind.
lingua
2012-03-08, 15:41:46
Mal abgesehen davon, dass die These von Zahl d. Ausführungseinheiten > Anzahl von Pixeln sehr utopisch scheint - aus Sicht physikalischer Größen:
schon bei den recht "wenigen" parallelen (?) Recheneinheiten aktueller GPUs wird doch das Problem des "Fütterns" dieser Einheiten immer schwieriger und damit verbundene Auslastungseinbußen immer größer.
Vielleicht gibt es irgendwo eine Art "break even point" (im Sinne von bester Relation) des Verhältnisses von Verwaltungseinheiten zu Ausführungseinheiten, wo darüber hinaus bei Erweiterung der Zahl der Ausführungseinheiten die Zahl der Verwaltungseinheiten überproportional steigt..... oder eben Effizienzverluste in Kauf genommen werden. (Siehe Tahiti - Sparen am Frontend)
Gipsel
2012-03-08, 15:53:14
Ich denke da zuerst an das Multithreading, um die Latenzen zu verstecken. Aber eine Handvoll Threads (~10) pro Kern könnte da schon genug sein.
Ich denke dass die Displays auch irgendwann mal ~3 MPixel haben werden. Das verschafft auch noch bisschen Luft.
Außerdem haben wir den Overdraw und Supersampling völlig vergessen. Es ist ja nicht so, als würde pro Pixel nur ein Fragment schattiert werden.
BAGZZlash
2012-03-08, 17:29:33
Ich denke dass die Displays auch irgendwann mal ~3 MPixel haben werden.
2.560 x 1.440 = 3.686.400.
Mainstream-Displays!
flame entfernt
Demogod
2012-03-08, 19:03:26
:D nachdem Du dich schon in #3 (~1Mill) grob verrechnet hast... ;D *duckundwech
Knuddelbearli
2012-03-08, 20:08:13
1 mio klingt nahc so wenig sagen wir um 100% ^^ bzw 1 binäre größenordnung ^^
RavenTS
2012-03-10, 12:54:01
2.560 x 1.440 = 3.686.400.
Da kann man dann ja auch schon mit modernen MultiMonitor-Setups argumentieren, da kommt man ja schnell mal auf 10MP ..!
Geldmann3
2012-03-10, 14:21:49
Da muss ich doch auch nochmal blöd klugscheißen. :biggrin:
Das kommende QuadHD hat über 8MP :tongue:
Finch
2012-03-10, 15:04:18
Da muss ich doch auch nochmal blöd klugscheißen. :biggrin:
Das kommende QuadHD hat über 8MP :tongue:
Naja das "kommende" QuadHD muss erstmal im PC Sektor ankommen.
Wenn ich nach 2560x1440er Wallpaper suche, stoße ich schnell an die Grenzen.
Das war damals bei 1920x1200 ähnlich. wie soll das erst bei quad HD werden ;D
x-dragon
2012-03-13, 19:04:19
Naja das "kommende" QuadHD muss erstmal im PC Sektor ankommen.
Wenn ich nach 2560x1440er Wallpaper suche, stoße ich schnell an die Grenzen.
Das war damals bei 1920x1200 ähnlich. wie soll das erst bei quad HD werden ;D
Man muss nur an den richtigen Stellen suchen :D
http://www.gigapixel.com/galleries/
http://www.querdenker-gigapixel.de/Uebersicht-aller-Gigapixel-Bilder.php
svg wallpaper und man hat keine sorgen mehr ;)
(kp ob das im windows geht)
Surtalnar
2012-03-16, 13:58:58
Geht nicht.
Da hat Microsoft also noch Verbesserungsbedarf.
Screemer
2012-03-16, 14:08:07
kann ja mal einer für win8 vorschlagen. vielleicht darf er dann mit ins nächste werbevideo.
Ich glaub das hat ungefähr Priorität -1
FeuerHoden
2012-03-17, 15:11:02
Oder Downsampling, wenn Grafiktreiber und Monitor Firmwares nicht künstlich kastriert sind bleibt die Grenze nach oben offen.
Gipsel
2012-03-19, 23:07:42
Mit der Antialiasing-Terminologie-Diskussion geht es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523457) weiter.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.