Archiv verlassen und diese Seite im Standarddesign anzeigen : Der optimale Grafikchip
Was sollte eurer Meinung nach der optimale Grafikchip der 6. generation so alles haben? (bitte an der Grenze des Technisch machbaren bleiben, danke :D)
StefanV
2001-10-02, 16:19:59
Kurz:
R8500 als Tiler.
Korak
2001-10-02, 16:22:38
Originally posted by Stefan Payne
Kurz:
R8500 als Tiler.
Mit Hardware Mpeg2/4 Encoder.
Quasar
2001-10-02, 16:45:12
Und richtigem Hardware FSAA, HW Anisotropischem Filter (mit vernünfitger implementation), mal sehen...mir fällt bestimmt noch mehr ein...
Das eine da was auf der neuen Maxtor ist(mit einem Foto zum 3d Model)
CU
Nero
StefanV
2001-10-02, 17:17:32
Originally posted by Korak
Mit Hardware Mpeg2/4 Encoder.
Ist der neue Rage Theatre Chip nicht dazu in der Lage??
@Nero
Du meinst Displacement Mapping...
Stimmt, das fehlt ;)
Korak
2001-10-02, 17:21:24
Kann der nicht nur Hardware-Decoding???
Stimmt, der kann nur dekodieren.
Also brauchen wir in der Tat einen encoder :D
@Stefan danke das wars
CU
Nero
Thowe
2001-10-02, 20:22:38
RealLive
Korak
2001-10-02, 20:29:06
Was'n das??? :D
Razor
2001-10-02, 21:13:26
BruteForce (SGI) Renderer ohne Bandbreitenlimitierung...
Großes Embedded Ram ala Bitboys !
;-)
Razor
Frank
2001-10-05, 14:56:04
Originally posted by HOT
Stimmt, der kann nur dekodieren.
Also brauchen wir in der Tat einen encoder :D
Decodieren von DVD/MPEG2 macht der Grafikchip selber. Der Rage Theatre bietet einen VideoIn/Out und zusätzlich auch eine MPEG2 Kompression in Hardware. Trotzdem braucht man da noch einen P3 450 um in Echtzeit in MPEG2 aufzunehmen. Es ist ein Encoder. Aber nur genutzt von der All In Wonder Serie ab Rage128 Pro
Etienne
2001-10-07, 17:40:49
HEHE. Da gibt es so viel, dass man sich wünschen könnte...
Also:
Anständige 3d Shutterbrillen unterstützung mit aktuellen Treibern.
Kompatibel mit allen Plattformen (os) Win 95, 98, XP, ME, 2000, linux usw.
Kinoleinwände (technisch machbar...)
Auf allen Systemen (egal ob 1ghz oder 100 mhz) gleiche Benchmarkergebnisse (damit sich die Jugend nicht damit beschäftigt wie mit messen von bestimmten Körperteilen)
Force Feedback (?) Man fühlt jeden Treffer
0.000000000000000000000001 ns TDR Ram (triple data Rate, is aber nicht wirklich schon so früh machbar)
Fotorealistische Grafiken
2d Bildqualität wie noch nie zuvor
3d Desktop
Muss nicht von NVidia sein...
Das ganze mobilisiert und Tragbar überall hin...
Kleiner Chip
Ich lass mir noch mehr einfallen...
Etienne
2001-10-07, 17:41:34
Wasserdicht und stossfest
Unzerstörbar...
Razor
2001-10-07, 19:19:07
Hey, Max Payne...
Hier wurde nach einem Chip gefragt und nciht nach einem Holodeck oder einem mobilen Emitter ala Start Trek !
;-)
Razor
Frank
2001-10-07, 19:34:58
sollte IBM TFT Display unterstützen mit Auflösung von 3452x2412 (Zahlen grob) in 32bit.
Korak
2001-10-08, 12:30:50
Originally posted by Frank
sollte IBM TFT Display unterstützen mit Auflösung von 3452x2412 (Zahlen grob) in 32bit.
Wow gibts das??? Krass :D
Etienne
2001-10-08, 17:03:15
Originally posted by Razor
Hey, Max Payne...
Hier wurde nach einem Chip gefragt und nciht nach einem Holodeck oder einem mobilen Emitter ala Start Trek !
;-)
Razor
wenn es schon so nen thread gibt, sollte man es ausnutzen... Aber das wäre cool. und die auflösung von 3452x2412x32 währe auch IDEAL....
Ceiser Söze
2001-10-08, 18:14:42
Originally posted by Max Payne
wenn es schon so nen thread gibt, sollte man es ausnutzen... Aber das wäre cool. und die auflösung von 3452x2412x32 währe auch IDEAL....
Genügt aber immer noch nicht, um alle Aliasing-Artefakte zu eliminieren (bzw. für das menschliche Auge unkenntlich zu machen) - kein Witz! ;)
Korak
2001-10-08, 18:17:19
Originally posted by Ceiser Söze
Genügt aber immer noch nicht, um alle Aliasing-Artefakte zu eliminieren (bzw. für das menschliche Auge unkenntlich zu machen) - kein Witz! ;)
Kommt auf die Größe des Bildschirms an ;D:D
Frank
2001-10-08, 19:33:35
War mal in irgend'ner c't vorgestellt. Kann ja nochmal aussuchen. Aber die Pixelgröße war extrem klein. Also so groß war das TFT gar nich.
StefanV
2001-10-08, 19:49:36
War's nicht ein 17" oder 22" Panel??
Frank
2001-10-08, 19:56:48
22" oder 24" klingt ganz passend.
Doomtrain
2001-10-08, 23:32:48
MEIN OPTIMALCHIP:
Ich denke, der ist machbar:
Features:
12 Pipelines,
3-4 Textureinheiten pro Pipeline,
8 Vertexshader,
DX10 und OpenGL2.0 Features,
min.650-800Mhz Chiptakt,
32MB eingebeteter Speicher + min. 265MB DDR oder QDR
so in etwa 100GB Speicherbandbreite,
Auflösung max. 3200x2400x64 (Wir brauchen neue Bildschirme)
Eventuell noch 8x FSAA,
Dualhead und perfekte 2D Grafik
Firma: Matrox
Nun ja, mein chip hat dann an die 300-400mio. Transitoren und wird in 0,08Micron gefertigt. Die Meinungen der Experten: Machbar oder ein Traum von mir??
Das ist vielleicht ein bisschen weit vorgegriffen :D
Hab auch mal ein bisschen gerechnet, wie wärs damit:
2 Vertexshader
Curved Surfaces in Form von polynomalen Flächen mit Hardware-NURBS-Unterstützung (ich gebs zu, schwer zu lösen)
Derferred TBRenderer mit 8 Renderpipes und jeweils 3 TMUs
mindestens Hardware Trilinear Filtering
displacement Mapping
Pixelshader
externer Geometriedatenbus (64Bit DDR, 8MB sollten erstmal reichen)
Speicheranbindung sollte nach Möglichkeit mehr als 20Gig/sec schaffen, also QDR-Technologie (ineffizient), RAMBUS (auch ineffizient), SLDRAM (schwer zu sagen aber interessant) oder 1TSRAM (teuer für 128+ MB, vielleicht bis dahin aber machbar).
Evtl. externer Framebuffer.
Fertigungsprozess für diesen 135Mio Transistoren Chip sollte 100nm sein.
AGP8x Anbindung ist selbstverständlich.
2 400MHz RAMDACs sind wünschenswert.
MPEG2/4 Hardware-Decoding ist auch wünschenswert.
So sollte IMHO Anfang übernächstes Jahr ein Gefikchip, von wem auch immer, aussehen :)
Thowe
2001-10-09, 10:18:00
Also Kyro 3.5 :D
Mastermind
2006-09-27, 01:08:07
Ich hab mal nen alten Thread hervorgeholt, man soll ja nicht Themen erstellen die schon behandelt wurden und ich wollte eben die Frage stellen, was für euch der optimale Grafikchip wäre. :smile:
Übrigens interessant zusehen, dass wir bald in etwa das bekommen, was in #25 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=57877#post57877) gewünscht wird. :smile:
Jupp Doomtrain hat den Nagel auf den Kopf getroffen. Nur der Firmenname passt da nicht rein *gg* (leider).
Jupp Doomtrain hat den Nagel auf den Kopf getroffen. Nur der Firmenname passt da nicht rein *gg* (leider).Naja, 3-4 TMUs pro Pipe? ;)
Botcruscher
2006-09-27, 11:18:46
[x] giebts nicht
Snatch
2006-09-27, 11:42:48
Hrhr krasse vorstellungen. Warum bauen wir das Teil nicht einfach :)
Gruß
Snatch
Der optimale Grafikchip sollte IMO diese Funktionen haben:
- Arithmetikleistung des R580 (oder darüber)
- Füllrate eines G71 (oder darüber, eventuell soviel wie Quad-SLI)
- 512-Bit-Speicherinterface mit 1 GHz GDDR3
- AF des NV20, bis 32x aufgebohrt, optional mit stets wieder voll abschaltbaren "Optimierungen"
- SGSSAA à la Voodoo5 6000 bzw. S3 Chrome-Serie (eventuell bis 16x SGSS, sowie Hybridmodi mit RGMS)
- Verlustleistung einer Mobile-CPU
- Glide-Support
Sowas würde ich sofort kaufen.
MfG,
Raff
AnarchX
2006-09-27, 14:52:05
Ein TBDR mit 400Mio Transistoren und aktuellem State-of-Art-Featureset. ;)
stav0815
2006-09-27, 14:57:10
Ein TBDR mit 400Mio Transistoren und aktuellem State-of-Art-Featureset. ;)
lass das mit den Transistoren weg und nimm ne annehmbare performance (muss nicht unbedingt überragend sein) und das teil ist gekauft!
RunenBlut
2006-09-27, 15:00:26
tjo - obwohl das wohl alles nur ein traum bleiben wird ;)
Mastermind
2006-09-27, 15:20:29
tjo - obwohl das wohl alles nur ein traum bleiben wird ;)
Ist es nicht so, dass hier auch Entwickler mitlesen? ;)
Blaire
2006-09-27, 15:21:32
Gibts nicht und wird es auch nie geben. :wink:
Der optimale Grafikchip sollte IMO diese Funktionen haben:
- Arithmetikleistung des R580 (oder darüber)
- Füllrate eines G71 (oder darüber, eventuell soviel wie Quad-SLI)
- 512-Bit-Speicherinterface mit 1 GHz GDDR3
- AF des NV20, bis 32x aufgebohrt, optional mit stets wieder voll abschaltbaren "Optimierungen"
- SGSSAA à la Voodoo5 6000 bzw. S3 Chrome-Serie (eventuell bis 16x SGSS, sowie Hybridmodi mit RGMS)
- Verlustleistung einer Mobile-CPU
- Glide-Support
Sowas würde ich sofort kaufen.
MfG,
RaffKlaaar ... und ich hätte gerne einen 10-Mio-Transistor-Chip, der unter Volllast nicht mehr als 10 Watt zieht, und 20 GT trilineare Füllrate bietet ... und die fertige Grafikkarte mit 2048 MiB RAM (1000 MHz GDDR4) darf natürlich nur einen zweistelligen Euro-Preis haben. Außerdem muss der Chip softwareseitig auf alles aufrüstbar sein: Glide, D3D10, D3D10.1, D3D11, ...
Zieht man die Verlustleistung ab, so wird das Ding mit entsprechendem finanziellen und designerischen Aufwand (Platine für vier GPUs + 512 Bit) IMO absolut realistisch.
MfG,
Raff
MEIN OPTIMALCHIP:
Ich denke, der ist machbar:
Aber Schwachsinn.
12 Pipelines,
3-4 Textureinheiten pro Pipeline,
Vor allem das hier. Ein flaches Design ist immer deutlich effizienter. Da war schon die Parhelia die Krone der Dummheit.
Firma: Matrox
S.o.
Nun ja, mein chip hat dann an die 300-400mio. Transitoren und wird in 0,08Micron gefertigt. Die Meinungen der Experten: Machbar oder ein Traum von mir??
Keins von beidem. Quatsch.
Platine für vier GPUs + 512 Bit
Kapierts doch endlich. Es wird keine 512-Bit-PCBs geben.
AnarchX
2006-09-27, 18:15:21
Kapierts doch endlich. Es wird keine 512-Bit-PCBs geben.
Gibt es doch schon - ATI's FireSTREAM.;)
Für den Consumer-Markt wird es aber natürlich noch lange zu teuer sein.
Spasstiger
2006-09-27, 18:39:39
Kapierts doch endlich. Es wird keine 512-Bit-PCBs geben.
Das ist eine SEHR unüberlegte Aussage. In zwei bis drei Jahren können wir ja nochmal darüber reden, zumindest was den Gamergrafikkartenmarkt angeht. In anderen Bereichen sind wir ja schon soweit, siehe das Posting von AnarchX.
am liebsten 64 bit farbe, 512 bit si, 4 gig ram mit sau wenig ns, hardware aa und af und power ohne ende...soweit noch mögl.... für auflösungen von hier bis zum mond flüssig darzustellen :D
Banshee18
2006-09-27, 18:48:19
- SGSSAA à la Voodoo5 6000 bzw. S3 Chrome-Serie (eventuell bis 16x SGSS, sowie Hybridmodi mit RGMS)
MfG,
Raff
Aber bitte noch MSAA+AAA als Alternative. Man braucht nicht immer SSAA.
Spasstiger
2006-09-27, 18:50:16
am liebsten 64 bit farbe
Bringt doch gar nix und aktuelle Grafikkarten können intern schon mit 128 Bit rechnen.
Godmode
2006-09-27, 18:53:05
Gibt es doch schon - ATI's FireSTREAM.;)
Für den Consumer-Markt wird es aber natürlich noch lange zu teuer sein.
Echt, ein 512 Bit SI?
tokugawa
2006-09-27, 19:06:24
Fotorealistische Grafiken
Da halt ich dagegen. Ich will mehr Möglichkeiten, non-photorealistische Grafiken (NPR-Grafiken) zu erzeugen. Halt ich für wesentlich interessanter und hübscher als der schnöde Fotorealismus (sh. das PS2-Spiel Okami).
Verallgemeinert gesagt, ich will noch mehr Generalisierung der Shader, mit möglicher Target-Fragment-Adressierung, uvm.
The_Invisible
2006-09-27, 19:13:35
Da halt ich dagegen. Ich will mehr Möglichkeiten, non-photorealistische Grafiken (NPR-Grafiken) zu erzeugen. Halt ich für wesentlich interessanter und hübscher als der schnöde Fotorealismus (sh. das PS2-Spiel Okami).
Verallgemeinert gesagt, ich will noch mehr Generalisierung der Shader, mit möglicher Target-Fragment-Adressierung, uvm.
ich spiele auch um mich vom alltag zu "drücken", da brauche ich in spielen auch nicht gerade "alltag", außer für rennsims vielleicht :D
mfg
Zieht man die Verlustleistung ab, so wird das Ding mit entsprechendem finanziellen und designerischen Aufwand (Platine für vier GPUs + 512 Bit) IMO absolut realistisch.
MfG,
Raff... und würde für den Preis sogut wie keiner kaufen.
Ich plane eh seit längerem eine fiktive Geschichte einer fiktiven aths-Graka. Da würde ich mich dann etwas länger auslassen zu dem, was ich für einigermaßen optimal hielte. SLI gehört übrigens mit dazu.
Gibt es doch schon - ATI's FireSTREAM.;)
Nö gibts nicht. Das ist nen stink normaler R580 mit 256-Bit-Si.
Scose
2006-09-27, 21:44:25
also wenn das eine rein rhetorische Frage sein soll ok...
aber die meisten von euch genannten "haben will" Features werden in absehbarer Zukunft wieder völlig überhohlt sein und wären dann alles andere als optimal.
Wenn es allerdings darum geht das momentan technische mögliche als optimal einzustufen, ok :)
wobei dann der Preis wiederum alles andere als optimal wäre...
Die Frage ist einfach nicht optimal, sorry :biggrin:
... und würde für den Preis sogut wie keiner kaufen.
Ich plane eh seit längerem eine fiktive Geschichte einer fiktiven aths-Graka. Da würde ich mich dann etwas länger auslassen zu dem, was ich für einigermaßen optimal hielte. SLI gehört übrigens mit dazu.
Sobald das "optimal" in der Überschrift auch den Kostenfaktor einschließt, sind wir wieder beim Thema Utopie.
MfG,
Raff
Ich denke beide IHVs werden wieder ziemlich starke Produkte abliefern, die beide am Rand des machbaren sind.
Das sich hier Laien anmaßen sich total utopische Dinge auszudenken die mit Sicherheit gar nicht machbar sind und den wirklich sehr fähigen Engineers der großen beiden IHVs bestimmt auch schon in den Sinn gekommen sind ist schon recht ironisch.
Vor allem das eDRAM-Zeug. Glaubt ihr die würden das nicht gerne haben? Speicherbandbreite ist eines der großen Probleme von GPUs.
Mastermind
2006-09-27, 22:17:07
Ich denke beide IHVs werden wieder ziemlich starke Produkte abliefern, die beide am Rand des machbaren sind.
Das sich hier Laien anmaßen sich total utopische Dinge auszudenken die mit Sicherheit gar nicht machbar sind und den wirklich sehr fähigen Engineers der großen beiden IHVs bestimmt auch schon in den Sinn gekommen sind ist schon recht ironisch.
Vor allem das eDRAM-Zeug. Glaubt ihr die würden das nicht gerne haben? Speicherbandbreite ist eines der großen Probleme von GPUs.
Raff hats doch grade eben angesprochen. Wenn wir uns hier Gedanken machen, dann lassen wir die Wirtschaftlichkeit außer acht. Niemand hier wird die Engineers für blöd und unfähig halten (glaube ich zumindest).
DaBrain
2006-09-27, 22:40:40
Der optimale Grafikchip sollte IMO diese Funktionen haben:
- Arithmetikleistung des R580 (oder darüber)
- Füllrate eines G71 (oder darüber, eventuell soviel wie Quad-SLI)
- 512-Bit-Speicherinterface mit 1 GHz GDDR3
- AF des NV20, bis 32x aufgebohrt, optional mit stets wieder voll abschaltbaren "Optimierungen"
- SGSSAA à la Voodoo5 6000 bzw. S3 Chrome-Serie (eventuell bis 16x SGSS, sowie Hybridmodi mit RGMS)
- Verlustleistung einer Mobile-CPU
- Glide-Support
Sowas würde ich sofort kaufen.
MfG,
Raff
Das +SLI/Crossfire Support
Besonders der Glide Support wäre ein geniales Gimmick.
Schön wäre auch noch die Möglichkeit den Speicher der Karte bei Bedarf aufrüsten zu können. Ich weiss aber nicht wie es da mit der technischen Machbarkeit aussieht. ;)
Besonders der Glide Support wäre ein geniales Gimmick.
Wozu? Wäre eh nur ein Wrapper, da die Glide viel zu hardwarenah ist - und die gibts schon zur Genüge.
Schön wäre auch noch die Möglichkeit den Speicher der Karte bei Bedarf aufrüsten zu können. Ich weiss aber nicht wie es da mit der technischen Machbarkeit aussieht. ;)
Schlecht. Die Bandbreite wäre bei nicht festverlöteten Chips deutlich mieser.
Tjell
2006-09-27, 23:30:49
Trilineare Filterung in Hardware anstatt bilinear.
Wenn die Aussage technisch nicht korrekt ist - vllt. wisst Ihr auch so, was ich meine. :wink:
Achja: Und STROMSPAREND sollte er sein.
Wenn die nächste Generation die Leistung der jetzigen hätte bei halber Stromaufnahme wäre ich zufrieden. Schneller bräuchte es für die kommende Generation erst einmal garnicht werden.
Trilineare Filterung in Hardware anstatt bilinear.Ist doch schon in Hardware – oder meinst du, die CPU filtert trilinear?
Wenn die Aussage technisch nicht korrekt ist - vllt. wisst Ihr auch so, was ich meine. :wink:Darauf würde ich mich nicht verlassen.
MadManniMan
2006-09-28, 00:20:51
Ich denke beide IHVs werden wieder ziemlich starke Produkte abliefern, die beide am Rand des machbaren sind.
Das sich hier Laien anmaßen sich total utopische Dinge auszudenken die mit Sicherheit gar nicht machbar sind und den wirklich sehr fähigen Engineers der großen beiden IHVs bestimmt auch schon in den Sinn gekommen sind ist schon recht ironisch.
Vor allem das eDRAM-Zeug. Glaubt ihr die würden das nicht gerne haben? Speicherbandbreite ist eines der großen Probleme von GPUs.
Nochmals: das Posting ist 5(!) Jahre alt.
Trilineare Filterung in Hardware anstatt bilinear.
Doofe Idee. Stattdessen könnte man sinnvollerweise besser mehr TMUs oder ALUs verbauen. Das gleiche Argument wie mehrere TMUs pro Pipe. Es ist einfach nicht effizient.
Doofe Idee. Stattdessen könnte man sinnvollerweise besser mehr TMUs oder ALUs verbauen. Das gleiche Argument wie mehrere TMUs pro Pipe. Es ist einfach nicht effizient.Das kann man so einfach nicht sagen. Eine trilineare TMU ist nicht unbedingt doppelt so teuer wie eine bilineare. Dann wieder ließen sich trilineare TMUs bauen, die zwar teurer sind als zwei bilineare, aber bestimmte Vorteile beim Textur-Caching haben.
Eine bilineare TMU pro Pipe ist für heutige GPUs aber schon ok. Nicht ok sind natürlich die angeblichen "Optimierungen", die bekanntlich mehr Qualität kosten als sie Geschwindigkeitszuwachs bringen.
Vor allem das hier. Ein flaches Design ist immer deutlich effizienter.Auch das kann man so nicht sagen. Bei der Voodoo 2 hätte man für eine 2x1-Lösung 4 Chips gebraucht, während die 1x2-Lösung mit 3 Chips auskam. Spiele, die zwei Texturen nutzen, sind damit hervorragend bedient – und Spiele die nur eine Texturschicht nutzten, waren eh schnell genug.
Wenn man Daten durch eine Textur loopen will, muss man entsprechend Zwischenergebnisse in Registern vorhalten können. Das kostet extra Transistoren, und es kostet Steuer-Logik. Da kann es sich schon lohnen, mehrere TMUs pro Pipe zu verbauen. Nicht umsonst verbaut man heute mehrere ALUs pro Pipe – obwohl man damit einen gewissen Verschnitt inkauf nimmt.
Das kann man so einfach nicht sagen.
Es kommt drauf an wieviel Bi-Input man wirklich noch benötigen wird in Zukunft. Wenn das ganz wegfällt wären Tri-TMUs wohl wirklich eine Möglichkeit. Aber sonst hat man einfach immer Leerlauf wofür man Transistoren wo anders verbauen könnte die öfters arbeiten können.
Auch das kann man so nicht sagen.
Doch das kann man heute so sagen.
Sonyfreak
2006-09-28, 10:52:00
Soweit ich es verstanden habe, berechnet eine bilineare TMU die Texturen bilinear und für eine trilineare Filterung der Texturen muss nachträglich noch ein weiterer Rechenschritt getan werden. Bei einer trilinearen TMU wird der ganze Aufwand gleich innerhalb der TMU in einem Durchlauf durchgeführt oder habe ich das falsch verstanden?
Falls nicht wäre es dann eigentlich auch möglich, gleich eine Art anisotroper TMU zu bauen, bei der die Texturen gespeichert werden und abhängig davon wo sie platziert werden, gleich auch anisotrop gefiltert werden?
mfg.
Sonyfreak
Es kommt drauf an wieviel Bi-Input man wirklich noch benötigen wird in Zukunft. Wenn das ganz wegfällt wären Tri-TMUs wohl wirklich eine Möglichkeit. Aber sonst hat man einfach immer Leerlauf wofür man Transistoren wo anders verbauen könnte die öfters arbeiten können.Der Gedankengang ist für sich genommen richtig, aber nicht vollständig. Nicht umsonst wurden längere Zeit mehrere TMUs pro Pipe verbaut, nicht umsonst werden heute mehrere ALUs pro Pipe verbaut.
Doch das kann man heute so sagen.Heute sind die Designs mit bis zu 3 ALUs pro Pipe doch gar nicht mal so flach.
Soweit ich es verstanden habe, berechnet eine bilineare TMU die Texturen bilinear und für eine trilineare Filterung der Texturen muss nachträglich noch ein weiterer Rechenschritt getan werden. Bei einer trilinearen TMU wird der ganze Aufwand gleich innerhalb der TMU in einem Durchlauf durchgeführt oder habe ich das falsch verstanden?
Falls nicht wäre es dann eigentlich auch möglich, gleich eine Art anisotroper TMU zu bauen, bei der die Texturen gespeichert werden und abhängig davon wo sie platziert werden, gleich auch anisotrop gefiltert werden? Man muss für trilineare Filterung nicht nur einen weiteren Rechenschritt tun, sondern erst mal ein zweites bilineares Sample berechnen. Rein bilineare TMUs haben 3 LERPs (1 LERP für lineare Interpolation U-Achse, 1 LERP für lineare Interpolation V-Achse, 1 LERP um aus beiden linearen Samples ein bilineares Sample zu machen.)
Rein trilineare TMUs könnte man mit 7 LERPs bauen (3 LERPs pro Bi-Sample, plus 1 LERP um aus zwei bilinearen Samples ein trilineares zu machen.)
Eine bilineare TMU die in zwei Takten auch trilinear filtern kann, braucht 4 LERPs (und einige zusätzliche Register.)
Der Gedankengang ist für sich genommen richtig, aber nicht vollständig. Nicht umsonst wurden längere Zeit mehrere TMUs pro Pipe verbaut, nicht umsonst werden heute mehrere ALUs pro Pipe verbaut.
Heute sind die Designs mit bis zu 3 ALUs pro Pipe doch gar nicht mal so flach.
Was bringst du denn jetzt die ALUs ins Spiel? Es ging ihm um die TMUs.
Heute sind die Designs mit bis zu 3 ALUs pro Pipe doch gar nicht mal so flach.
Doch - gerade die Designs mit 3 ALUs sind ziemlich flach; die mit zweien sind quasi doppelt so hoch. ;)
/erbsenzählmodus
Quasar
2006-09-28, 20:54:15
Doch - gerade die Designs mit 3 ALUs sind ziemlich flach; die mit zweien sind quasi doppelt so hoch. ;)
/erbsenzählmodus
Die Erbsen hatten meinen Keks gefressen. (Plusquamperfekt, weil sie damit bereits fertig gewesen sind und die Handlung in der Vergangenheit abgeschlossen war.)
Kinman
2006-09-28, 21:10:07
Kurz gesagt:
Ein ausreichend schneller Realtime Raytracer der max. 80W verbratet (maximal!) ;)
mfg Kinman
Tjell
2006-09-28, 23:31:35
Das kann man so einfach nicht sagen. Eine trilineare TMU ist nicht unbedingt doppelt so teuer wie eine bilineare. Dann wieder ließen sich trilineare TMUs bauen, die zwar teurer sind als zwei bilineare, aber bestimmte Vorteile beim Textur-Caching haben.
Dann scheine ich "trilineare TMU" gemeint zu haben. Bin wie gesagt Laie. ;-)
Ich hätte gerne eine Grafikkarte, die man ständig per Software-Update erweitern kann, so daß man die Karte nur einmal bezahlen kann und immer High-End unterwegs ist :)
=Floi=
2006-09-28, 23:50:05
von der idee her garnicht so blöde
standardtiesierte technik
ala vertex und pixel shader frei programmierbar
AnarchX
2006-09-28, 23:52:22
Ich hätte gerne eine Grafikkarte, die man ständig per Software-Update erweitern kann, so daß man die Karte nur einmal bezahlen kann und immer High-End unterwegs ist :)
Soetwas ist nur bei Creative möglich...:biggrin:
Soetwas ist nur bei Creative möglich...:biggrin:
;D
Naja, das wurde aber mit dem Erscheinen der X-Fi abgebrochen. ;(
MfG,
Raff
Ein ausreichend schneller Realtime Raytracer der max. 80W verbratet (maximal!) ;)
Wow. Harte Schatten ala Doom 3, aber eine vollkommen statische Welt. Ja das brauchen wir wirklich...
Wow. Harte Schatten ala Doom 3, aber eine vollkommen statische Welt. Ja das brauchen wir wirklich...
http://en.wikipedia.org/wiki/Photon_mapping
Das ist keine reine Raytracing-Technik. Das wäre genauso idiotisch wie anzunehmen jeder Rasterizer könnte Radiosity.
Mit "können" meine ich natürlich "in Echtzeit können".
MadManniMan
2006-09-29, 00:41:11
Die Erbsen hatten meinen Keks gefressen. (Plusquamperfekt, weil sie damit bereits fertig gewesen sind und die Handlung in der Vergangenheit abgeschlossen war.)
Meine grammatikalisch-theoretischen Kenntnisse waren nie so ausgeprägt, wie man bei meinem Zeugnis vermuten würde, aber würde es im Plusquamperfekt nicht "Die Erbsen hatten meinen Keks gefressen gehabt." heißen?
Was bringst du denn jetzt die ALUs ins Spiel? Es ging ihm um die TMUs.Ja und. Die Gründe warum man früher mehrere TMUs pro Pipe verbaute sind sehr ähnlich mit den Gründen, warum man heute mehrere ALUs pro Pipe verbaut.
klumy
2006-09-29, 19:11:51
Passivkühlung
stromsparend
hohe Rohleistung
PassivkühlungWas gibt es denn an einem langsam drehendem Lüfter auszusetzen? Das ist auch unhörbar und kühlt mit weniger Aufwand wesentlich besser.
Wenns nach mir ginge, könnten die Grafikkarten ruhig Krach machen wie ein Flugzeug, wenn man dafür auch mehr Leistung bekommen würde. ;)
Armaq
2006-09-30, 13:37:26
5x soviel Leistung wie ne 6800Ultra und auf AGP 8x. Das wäre es für mich. ;D
RavenTS
2006-09-30, 17:26:13
MEIN OPTIMALCHIP:
Ich denke, der ist machbar:
Features:
12 Pipelines,
3-4 Textureinheiten pro Pipeline,
8 Vertexshader,
DX10 und OpenGL2.0 Features,
min.650-800Mhz Chiptakt,
32MB eingebeteter Speicher + min. 265MB DDR oder QDR
so in etwa 100GB Speicherbandbreite,
Auflösung max. 3200x2400x64 (Wir brauchen neue Bildschirme)
Eventuell noch 8x FSAA,
Dualhead und perfekte 2D Grafik
Firma: Matrox
Nun ja, mein chip hat dann an die 300-400mio. Transitoren und wird in 0,08Micron gefertigt. Die Meinungen der Experten: Machbar oder ein Traum von mir??
Erstaunlich wie sehr dieses Posting heute, fünf Jahre danach, quasi real geworden ist. Außer dem Speicher hat man doch heute quasi alles in etwa.
Meine grammatikalisch-theoretischen Kenntnisse waren nie so ausgeprägt, wie man bei meinem Zeugnis vermuten würde, aber würde es im Plusquamperfekt nicht "Die Erbsen hatten meinen Keks gefressen gehabt." heißen?
nö, war schon richtig. dein satz beinhaltet ein doppeltes plusquamperfekt und gilt laut http://de.wikipedia.org/wiki/Tempus als "standardsprachlich fehlerhaft".
Spasstiger
2006-10-01, 04:26:55
Erstaunlich wie sehr dieses Posting heute, fünf Jahre danach, quasi real geworden ist. Außer dem Speicher hat man doch heute quasi alles in etwa.
3-4 TMUs je Pipeline hat man heute bestimmt nicht. Generell existiert der Pipelinebegriff nur noch alibimäßig, bei der nächsten Generation wird er zumindest bei ATI ganz verschwinden.
Und von Matrox kommt er auch nicht ;D
Die nächste Generation wird sicher höhere Füllrate, Speicherbandbreite,.. bieten. Das braucht man nicht auf einen "Wunschtzettel" zu schreiben. Geringe Verlustleistung da schon ehr. Aber gute Bildqualität mit winkelunabhangigiem AF und vor allem vollständig deaktivierbaren "Optimierungen" sind weder utopisch teuer noch technisch schwierig, sondern allein vom Willen der Treiberprogrammierer abhängig.
Wie währs mit echtzeit HDR-Rendering ("HDR-TMUs" und "HDR-Alphablender")? HDR-Rendering bringt ja auch bei LDR bei Monitoren schon was, nen HDR- Monitor wirds dann früher oder später auch geben, zumal die Einführung der HDR Digicams auch kurz bevor steht..
Deshalb hier kein Henne / Ei Problem.
Meine grammatikalisch-theoretischen Kenntnisse waren nie so ausgeprägt, wie man bei meinem Zeugnis vermuten würde, aber würde es im Plusquamperfekt nicht "Die Erbsen hatten meinen Keks gefressen gehabt." heißen?
Doppelt gemoppelt hält besser oder wie :D
Die nächste Generation wird sicher höhere Füllrate, Speicherbandbreite,.. bieten. Das braucht man nicht auf einen "Wunschtzettel" zu schreiben. Geringe Verlustleistung da schon ehr. Aber gute Bildqualität mit winkelunabhangigiem AF und vor allem vollständig deaktivierbaren "Optimierungen" sind weder utopisch teuer noch technisch schwierig, sondern allein vom Willen der Treiberprogrammierer abhängig.
Wie währs mit echtzeit HDR-Rendering ("HDR-TMUs" und "HDR-Alphablender")? HDR-Rendering bringt ja auch bei LDR bei Monitoren schon was, nen HDR- Monitor wirds dann früher oder später auch geben, zumal die Einführung der HDR Digicams auch kurz bevor steht..
Deshalb hier kein Henne / Ei Problem.
Das glaube ich so nicht. Änderungen bei der Speicherbandbreite lohnt z.Z. einfach noch nicht (Ausser über Taktsteigerungen) und Füllratenerhöhungen wird es nurnoch moderat bis garnicht geben. Die Rechenleistung der Grafikchips aber wird explodieren.
Naja HDR ist ja ein Schlagwort das einem die Füllrate/Speicherbandbreite unter den Füßen wegzieht, dazu noch AA und dann schalten heutige Chips ab.
Man hat doch nur die Möglichkeit die Features im Chip selber schneller zu machen, sei es durch effizientere Einheiten, oder einfach durch mehr Einheiten die das gleiche Abarbeiten. Denn den Chip selber hochtakten wie früher um deftig Rohleistung rauszuholen ist bei der Größe/Stromverbrauch/Kühlleistung nicht mehr wirtschaftlich sinnvoll. Ich lehns mal an Intel an, die haben ja auch ein wirklich anderes Design nun am Start das das alte in die Schranken weist, bei besserer Wirtschaftlichkeit/Stromverbrauch/Hitzeabgabe.
Solange die Technik bei der RAM Technologie so weiter rennt, brauch man vieleicht keinen größeren Bus, GDDR4 läuft ja super, auch wenns atm nur ein Hersteller gibt ^^
Vieleicht isses aber auch günstiger andere Wege zu gehen
Naja HDR ist ja ein Schlagwort das einem die Füllrate/Speicherbandbreite unter den Füßen wegzieht, dazu noch AA und dann schalten heutige Chips ab.
Man hat doch nur die Möglichkeit die Features im Chip selber schneller zu machen, sei es durch effizientere Einheiten, oder einfach durch mehr Einheiten die das gleiche Abarbeiten. Denn den Chip selber hochtakten wie früher um deftig Rohleistung rauszuholen ist bei der Größe/Stromverbrauch/Kühlleistung nicht mehr wirtschaftlich sinnvoll. Ich lehns mal an Intel an, die haben ja auch ein wirklich anderes Design nun am Start das das alte in die Schranken weist, bei besserer Wirtschaftlichkeit/Stromverbrauch/Hitzeabgabe.
Solange die Technik bei der RAM Technologie so weiter rennt, brauch man vieleicht keinen größeren Bus, GDDR4 läuft ja super, auch wenns atm nur ein Hersteller gibt ^^
Vieleicht isses aber auch günstiger andere Wege zu gehen
http://www.3dcenter.de/artikel/2006/01-01_c.php
"Um die benötigte Bandbreite zu reduzieren, wird es über kurz oder lang Texturkomprimierungsformate für FP16-Texturen geben. Wenn auch ATI endlich FP16-TMUs bietet und sich Nvidia bequemt hat, FP16-Multisampling zu ermöglichen, und man sich vielleicht dereinst auf die Funktionalität einer Tonemapping-Unit einigt (oder die Pixelshader-Geschwindigkeit weiter verbessert), dann übersteigt die optische Zusatzqualität vom HDR-Rendering den Geschwindigkeitsnachteil im Vergleich zum LDR-Rendering."
Stellt sich die Frage was als "HDR" bezeichnet wird, oder ob wir die FP/FX Bezeichnungen nutzen müssen. Ist HDR in irgendeiner Art und Weis spezifiziert in D3D10?
Was ist eigentlich aus 3Dc von Ati geworden *g Kompressionsverfahren kommen und gehen... wenn nicht als Standart festgelegt nützt das alles NICHTS!
Ist HDR in irgendeiner Art und Weis spezifiziert in D3D10?
Das FP16-Rendertarget-Format ist verbindlich.
wenn nicht als Standart festgelegt nützt das alles NICHTS!
Standard mit d bitte.
Stellt sich die Frage was als "HDR" bezeichnet wird,
HDR-Rendering ist das Rechnen mit hoher Genauigkeit und einem großen Wertebereich > bessere Kontraste, realistischere Helligkeiten, Colorbanding-freie Oberflächen
oder ob wir die FP/FX Bezeichnungen nutzen müssen.
herkömmliches lineares RGB: 24 dB
MDR: 48 dB (FX16, FP16)
HDR: 96 dB (FP24)
Ist HDR in irgendeiner Art und Weis spezifiziert in D3D10?
Für Pixelshader 2.0 wird mindestens FP24-Genauigkeit verlangt > Die Dynamik beträgt damit 382 dB.
Aber: Das heißt nicht automatisch "HDR-TMUs" und "HDR-Alphablender".
Das kann man im Pixelshader emulieren, was allerdings erheblich Performance kostet.
HDR-Rendering ist im Prinzio schon auf jeder DirectX9-Karte möglich. Die Frage ist nur, zu welchem Preis.
Was ist eigentlich aus 3Dc von Ati geworden *g Kompressionsverfahren kommen und gehen... wenn nicht als Standart festgelegt nützt das alles NICHTS!
deekey777
2006-10-02, 13:05:12
Es stellt sich auch die Frage, warum eigentlich gleich FP16?
Es gibt noch das 10-bit-Format. Warum wird es so wenig genutzt, wo dieses Format ausreicht?
http://img226.imageshack.us/img226/7025/googovg2.th.png (http://img226.imageshack.us/my.php?image=googovg2.png)
Es stellt sich auch die Frage, warum eigentlich gleich FP16?
Es gibt noch das 10-bit-Format. Warum wird es so wenig genutzt, wo dieses Format ausreicht?
Ausreicht? Wo? Wofür?Im Frabebuffer?
Sprichst du den Framebuffer mit 30 Bit Farbe des R520 an? Klar, besser wirds aber die Dynamik reicht für echtes HDR immer noch nicht, da braucht man einen
64-Bit-Framebuffer.
@Topic: Es geht hier um den optimalen Grafikchip, nicht um eine Zwischenlösung.
Es gibt auch FP10, aber das unterstützt keine PC-GPU soweit ich weiß.
MadManniMan
2006-10-02, 19:51:15
Doppelt gemoppelt hält besser oder wie :D
Huppsa, selbstverfreilich steh ich zu meinem Faukspaß, aber wie sagt die Wiki so schön? "... gilt die Verwendung des doppelten Plusquamperfekts durchaus als legitimes Mittel, eine Vor- Vorvergangenheit zu bilden."
Immerhin nicht doof ich bin, oder so! =)
PatTheMav
2006-10-02, 21:43:08
Um einmal nicht der Featuritis anheim zu fallen, würde ich wie einige vor mir vor allem eine Optimierung in den Bereichen Verlustleistung und Stromverbrauch wünschen. Zwar leben wir momentan noch in Saus und Braus, was die Energieversorgung betrifft, wenn jedoch immer mehr Menschen auf diesem Planeten unseren Wohlstand mit seinem immensen Energieverbrauch (und dessen Verschwendung) erreichen, müssen wir uns über Energieeffizienz ernsthaft gedanken machen.
Im CPU-Bereich wurde dieses erkannt und ich sehe dort sowohl von AMD als auch von Intel richtige Trends, ATI und nVidia scheinen sich jedoch noch nicht entschieden zu haben, ob sie sich wirklich auf eine Reduktion in diesen Bereichen konzentrieren sollen, oder weiterhin lieber auf Tricksereien in Filtern und Funktionen setzen sollten, um in einzig in Benchmarks besser dazustehen.
deekey777
2006-10-03, 00:24:29
Ausreicht? Wo? Wofür?Im Frabebuffer?
Sprichst du den Framebuffer mit 30 Bit Farbe des R520 an? Klar, besser wirds aber die Dynamik reicht für echtes HDR immer noch nicht, da braucht man einen 64-Bit-Framebuffer.
Ich hätte es so schreiben sollen: Warum wird es nicht dort benutzt, wo es ausreicht und bessere Qualität liefert?
Tigerchen
2006-10-03, 09:10:18
Wie wärs mit einem richtig fetten Voxel-Beschleuniger. Und Radiosity-Beleuchtung in Echtzeit.
Ja und daneben bitte noch 10EiB RAM für den nötigen Speicher für die Voxel in ansehnlicher Größe X-D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.