Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia übernimmt RayScale - Ray-Tracing auf der GPU
AnarchX
2008-05-22, 21:37:14
Sitting here at an NVIDIA meeting in San Jose, word just got passed to the world that NVIDIA will be announcing the acquisition of a ray tracing software company called RayScale.
This is an incredibly interesting move and clarifies more of NVIDIA's stance on merging traditional rasterization and ray tracing techniques, as we saw in our interview with David Kirk, NVIDIA's CTO.
http://www.pcper.com/comments.php?nid=5674
tombman
2008-05-23, 05:10:15
Hammergeil ;) Habs gerade gelesen.
Die geben den Kampf mit Intel echt ned auf ;D;D
Crazy_Chris
2008-05-23, 09:51:31
Wie geil ist das denn. :eek: Nvidia wird Intel sicher ordentlich in den Arsch treten wenn Larrabee rauskommt. :tongue:
Nakai
2008-05-23, 11:36:58
Wie geil ist das denn. :eek: Nvidia wird Intel sicher ordentlich in den Arsch treten wenn Larrabee rauskommt. :tongue:
Warts ab...Intel hat deutlich mehr finanzielle Mittel als NV.
mfg Nakai
buyman
2008-05-23, 11:48:06
Jetzt wirds also richtig interessant mit nVidia und Intel.
Stellt sich mir nur eine Frage: Was macht AMD/ATI in der Hinsicht?
=Floi=
2008-05-23, 11:53:30
aber nv hat deutlich bessere ideen und im gpu bereich könnten sie intel durchaus auf distanz halten. Die haben da eine sehr gute basis.
BlackBirdSR
2008-05-23, 12:02:18
Stellt sich mir nur eine Frage: Was macht AMD/ATI in der Hinsicht?
So lange alte Marktsegmente entfernen, und neue suchen, bis man profitabel ist und sich eine neue Ausgangsbasis erstellen kann.
Vergleichen mit der Existent des Konzerns ist die Frage/der Stolz, ob man überhaupt noch das Peformance-Segment bedient ziemlich unwichtig.
Winter[Raven]
2008-05-23, 12:11:43
Also Nvidia ist und bleibt Nvidia.... Lasse nie deine Konkurrenten wissen woran du bist, und sei in der Öffentlichkeit nie das was du bist...
Könnte ein genialer Schachzug gewesen zu sein, für die Zukunft des Unternehmens.
Was mich interessieren würde... ist das Bild zum Rayzeug nur ein Bild oder gibts davon auch eine Realtimeanwendung :)
Exxtreme
2008-05-23, 12:53:39
Warts ab...Intel hat deutlich mehr finanzielle Mittel als NV.
mfg Nakai
Das bringt Intel trotzdem nix da sie kaum Knowhow auf dem Grafikkartenmarkt haben. Und die Chipsatz-GraKas zählen net.
reunion@work
2008-05-23, 13:44:05
Das bringt Intel trotzdem nix da sie kaum Knowhow auf dem Grafikkartenmarkt haben. Und die Chipsatz-GraKas zählen net.
Mit Geld kann man alles kaufen - auch "know-how".
Matrix316
2008-05-23, 13:46:23
Vielleicht käuft ja Intel von AMD die ATI Sparte. ;););)
Dann hätte AMD wieder mehr Luft um sich auf die CPUs zu konzentrieren. :D
reunion@work
2008-05-23, 13:48:32
Vielleicht käuft ja Intel von AMD die ATI Sparte. ;););)
Dann hätte AMD wieder mehr Luft um sich auf die CPUs zu konzentrieren. :D
Intel braucht gar kein Grafikchipunternehmen aufkaufen, das wäre aus kartellrechtlichen Gründen wohl auch gar nicht möglich. Intel muss nur fähige Ingenieure von AMD/nV abwerben, was mit der entsprechenden Bezahlung kein Problem sein sollte.
Hvoralek
2008-05-23, 16:06:34
Sooo überraschend finde ich es nicht, dass Nvidia sich die Option "Raytracing" offenhält. Die haben auch vor Jahren schon einen der SaarCor- Entwickler mit einem Forschungspreis ausgezeichnet; ich glaube sogar, bevor Intel offen Interesse an dem Thema zeigte.
Winter[Raven]
2008-05-23, 16:10:15
@ reunion
Langsam fängst du mit deinem Geldgerede zu übertreiben. Die Welt dreht sich nicht nur um Geld.
//EDIT:
Oder entscheidest du dich auch im RL welches Jobangebot du annehmen wirst, je nach Gehalt?
Tomislav
2008-05-23, 20:59:25
Hallo
;6525001']
Langsam fängst du mit deinem Geldgerede zu übertreiben. Die Welt dreht sich nicht nur um Geld.
In der freien Marktwirtschaft (Vor allem in den USA) dreht sich 100%ig alles um Geld wer das nicht glaubt hat das System noch nicht ganz verstanden oder gibt es in dem Dorf in dem du lebst Grafikkarten und CPUs umsonst ?
;6525001']
Oder entscheidest du dich auch im RL welches Jobangebot du annehmen wirst, je nach Gehalt?
Selbstverständlich wonach sonst ? Sympathie zum Pförtner ? Aussehen des Firmengebäudes ? Das Gehalt ist das wichtigste alles andere kommt weit danach.
Grüße Tomi
Avalox
2008-05-24, 07:25:57
Eine grosse Firma unterliegt genauso dem Wirtschaften, wie eine kleine Firma.
Intel muss bei seinen Aktionären genauso Rechenschaft ablegen, wie ein kleines Unternehmen bei seinen Teilhabern.
Gute Investments der Unternehmung müssen die Aktionäre überzeugen. Aber gute Investments mussten schon immer überzeugen, ob Bank oder Aktionär ist dabei recht egal. Wobei letztere ja i.d.R. sogar die selben sind.
Intel könnte es sicherlich finanziell leisten auf den Tisch zu klopfen und den Markt in einem Bereich aufzurollen. Aber dann würden die Aktionäre einen Vogel zeigen und die Spitze auswechseln, wenn auch nur ein paar Doller mehr als notwendig ausgegeben wurden.
Grosse Unternehmen schöpfen ihre Vorteile aus der Marktmacht ihrer einzelnen Divisionen. Man sitzt in Ausschüssen, hat Rahmenvereinbarungen, ist Grosslieferant, ist Grossabnehmer von Geld und Rohstoffen... Schlicht es bestehen eine Menge Abhängigkeiten. Das ist das Betätigungsfeld einer grossen Unternehmung. Nicht ein "das will der CEO, das machen wir so".
Der CEO ist Instrument der Aktionäre und die lassen sich von netter 3D Grafik wahrlich wenig beeindrucken, diese wollen maximale Rendite ihrer Investition und das bedeutet nicht einen $ mehr auszugeben als nötig.
Winter[Raven]
2008-05-24, 08:50:31
Hallo
In der freien Marktwirtschaft (Vor allem in den USA) dreht sich 100%ig alles um Geld wer das nicht glaubt hat das System noch nicht ganz verstanden oder gibt es in dem Dorf in dem du lebst Grafikkarten und CPUs umsonst ?
Selbstverständlich wonach sonst ? Sympathie zum Pförtner ? Aussehen des Firmengebäudes ? Das Gehalt ist das wichtigste alles andere kommt weit danach.
Grüße Tomi
Na wenn du so Arbeiten gehts, dann sag ich mal Gute Nacht...
Sooo überraschend finde ich es nicht, dass Nvidia sich die Option "Raytracing" offenhält. Die haben auch vor Jahren schon einen der SaarCor- Entwickler mit einem Forschungspreis ausgezeichnet; ich glaube sogar, bevor Intel offen Interesse an dem Thema zeigte.
Intel hat schon lange eine RT-Forschungsgruppe und veröffentlichen auch schon sehr sehr lange ihre Ergebnisse. Auch hatten sie eine Zusammenarbeit mit den OpenRT und Saarcor Entwicklern. Die meisten der Leute arbeiten inzwischen bei Intel.
Nvidia hatte sich hingegen nun für einige Zeit den Prof des Lehrstuhls geangelt.
Bevor wieder jemand jammert: AMD ist auch nicht untätig in dem Bereich.
DR.ZEISSLER
2008-05-24, 16:54:19
ja wie geht es weiter mit raytracing ?
was macht amd in diesem bereich ?
irgendwie gefallen mir die ati's besser als die nv karten, was darstellungsqualiät betrifft, das kann aber auch nur MEIN subjektiver eindruck sein.
wer jetzt schon seine kiste mit ein wenig raytracing "belasten" will, dann bidde;
http://www.pouet.net/prod.php?which=9461
http://www.pouet.net/prod.php?which=467
http://www.pouet.net/prod.php?which=1924
http://www.pouet.net/prod.php?which=5
Avalox
2008-05-25, 07:47:10
wer jetzt schon seine kiste mit ein wenig raytracing "belasten" will, dann bidde;
http://www.pouet.net/prod.php?which=9461
http://www.pouet.net/prod.php?which=467
http://www.pouet.net/prod.php?which=1924
http://www.pouet.net/prod.php?which=5
Laufen die Demos heute langsamer als damals, als eventuell noch eine potente SingleCore CPU im Rechner steckte? Mehrkern Tauglichkeit wird wohl bestimmt nicht in solch einer alten Scenedemo stecken.
Exxtreme
2008-05-25, 09:47:19
wer jetzt schon seine kiste mit ein wenig raytracing "belasten" will, dann bidde;
http://www.pouet.net/prod.php?which=9461
http://www.pouet.net/prod.php?which=467
http://www.pouet.net/prod.php?which=1924
http://www.pouet.net/prod.php?which=5
Hihihi, wenn das die Spielezukunft sein soll dann gute Nacht. Es ruckelt sogar auf meinem Phenom bei 640 x 480 und das ganze Bild wabbert wie verrückt.
tombman
2008-05-25, 10:58:51
Hihihi, wenn das die Spielezukunft sein soll dann gute Nacht. Es ruckelt sogar auf meinem Phenom bei 640 x 480 und das ganze Bild wabbert wie verrückt.
Auf meinem 4ghz Intel rennts flüssig ;) Es wird auch nur 1 core genutzt...
Hier eine forderndere Szene:
http://img503.imageshack.us/img503/6982/demo12008052510555746ve8.jpg (http://imageshack.us)
Wenn man das mit einer schnellen GPU rechnen würde könnte man die Auflösung sicher weit hochdrehen ;)
Faktor 10 ist da locker drin.
The_Invisible
2008-05-25, 11:21:59
Laufen die Demos heute langsamer als damals, als eventuell noch eine potente SingleCore CPU im Rechner steckte? Mehrkern Tauglichkeit wird wohl bestimmt nicht in solch einer alten Scenedemo stecken.
welcher einkern prozessor ist den schneller als ein heutiger c2d?
mfg
DR.ZEISSLER
2008-05-25, 11:35:12
Hihihi, wenn das die Spielezukunft sein soll dann gute Nacht. Es ruckelt sogar auf meinem Phenom bei 640 x 480 und das ganze Bild wabbert wie verrückt.
von einem MOD hätte ich so ein kommentar nicht erwartet, da
1. das keine kommerziellen entwicklungen sind, sondern DEMOS
2. die sachen schon einige jahre am buckel haben
3. die aktuelle raytracing technik eine viel weitere entwicklungsstufe ist.
peinlich peinlich
doc
Avalox
2008-05-25, 12:10:58
welcher einkern prozessor ist den schneller als ein heutiger c2d?
Warum ein C2D? Stand der Dinge ist doch wohl eher ein Quadcore, mit seiner absolut grösseren potentiellen Rechenleistung steht dieser weit vor dem C2D.
Ein ordentlicher 3,8GHz Prescott 2M dürfte so machen Intel Pendant aktueller Technik in so mancher alter Anwendungen das Leben sicherlich schwer machen. Schließlich gibt es letzteren ab 1,8GHz.
Absolut das selbe auf der A64 Seite. Ein schöner Windsor Kern mit 2,6GHz wird so manchen Phenom heute einfach davon rennen. Immer die richtige Anwendung vorausgesetzt.
Ein ordentlicher 3,8GHz Prescott 2M dürfte so machen Intel Pendant aktueller Technik in so mancher alter Anwendungen das Leben sicherlich schwer machen. Schließlich gibt es letzteren ab 1,8GHz.
sicher nicht, ein 4GHz P4-kern hat gegen einen 2GHz Core2-kern keine chance.
Exxtreme
2008-05-25, 12:47:55
von einem MOD hätte ich so ein kommentar nicht erwartet, da
1. das keine kommerziellen entwicklungen sind, sondern DEMOS
2. die sachen schon einige jahre am buckel haben
3. die aktuelle raytracing technik eine viel weitere entwicklungsstufe ist.
peinlich peinlich
doc
Ändert nichts an der Tatsache, daß Raytracing im jetzigen Stadium spieleuntauglich ist und man sehr viel mehr Rechenleistung bräuchte um es auf jetziges Rastering-Niveau zu bringen.
Avalox
2008-05-25, 12:55:55
sicher nicht, ein 4GHz P4-kern hat gegen einen 2GHz Core2-kern keine chance.
So pauschal ist diese Aussage definitiv falsch.
Zum einen gab es natürlich gar keinen P4 mit 4GHz. Zum anderen
ist ein E6300 also der 1,86GHz DualCore Core2Duo in vielen Anwendungen mehr oder minder deutlich langsamer als ein 3,7GHz P4. Also würde dieses bei 2GHz zu 4 GHz auch mit aller Wahrscheinlichkeit zutreffen. Was nicht heisst, dass es natürlich immer so ist und vor allen bei modernen Anwendungen so ist. Dort wird es natürlich durch die Anpassung der Programme es in die andere Richtung gehen.
Hvoralek
2008-05-25, 13:05:59
Hihihi, wenn das die Spielezukunft sein soll dann gute Nacht. Es ruckelt sogar auf meinem Phenom bei 640 x 480 und das ganze Bild wabbert wie verrückt.Der Vergleich von Software- Raytracing (zumal auf hierfür unnötig flexiblen Allzweckprozessoren) mit hardwarebeschleunigter Rastergrafik hinkt aber auch ziemlich. Wie schnell wäre wohl ein Software- Rasterizer, der mit den Ressourcen solcher Demos entwickelt würde, und wie schnell Raytracing auf einem spzialisierten Chip mit den Eckdaten moderner GPUs?
Avalox
2008-05-25, 13:14:15
Der Vergleich von Software- Raytracing (zumal auf hierfür unnötig flexiblen Allzweckprozessoren) mit hardwarebeschleunigter Rastergrafik hinkt aber auch ziemlich. Wie schnell wäre wohl ein Software- Rasterizer, der mit den Ressourcen solcher Demos entwickelt würde, und wie schnell Raytracing auf einem spzialisierten Chip mit den Eckdaten moderner GPUs?
Dieser Verglich ist müssig. Weil 3D Rasterizer GPUs gibt es und 3D Raytracing GPUs gibt es nicht.
Wenn jetzt alle immer erzählen, Raytracing setzt sich durch wenn...
Zum einen die Grafikqualität heutiger Lösungen erreicht wird, aber dort mehr FPS. Oder zum anderen bei besserer Grafikqualität, bei gleicher FPS.
Dann finde ich dieses als grundlegend falsch und denke, wer solches glaubt wird sich noch mal gross wundern.
Ich sage, Raytracing setzt sich durch bei hinreichender Qualität und günstigeren Preis..
Die mit vergleichbaren Rasterizer erreichbare Qualität spielt gar keine Rolle mehr, wenn man den Raytracing Ansatz quasi kostenlos bekommen wird. Es muss nur eine hinreichende Qualität geboten werden.
Hvoralek
2008-05-25, 13:26:07
Dieser Verglich ist müssig. Weil 3D Rasterizer GPUs gibt es und 3D Raytracing GPUs gibt es nicht."Mit Raytracing sollte man sich nicht groß beschäftigen, denn das kann mit Rastergrafik nicht konkurrieren, weil man sich damit nicht beschäftigt". Schöner Zirkelschluss :|
Hardwarebeschleunigung für Raytracing ist jedenfalls möglich. Wenn man schon vergleicht, dann z.B. das, was SaarCOR leiten konnte, mit einem vergleichbar aufwändigen Rasterchip. Oder wenigstens heute hardwarebeschleunigte Rastergrafik mit dem, was mit Raytracing auf einem eingermaßen dafür geeigneten Prozessor machbar wäre. Man sollte dabei mit Blick auf heutige 150- €- GraKaen zumindest von ~500 GFLOPS Arithmetikleistung ausgehen und nicht von einem einzelnen K10- Kern im einstelligen GFLOPS- Bereich.
Avalox
2008-05-25, 13:29:26
"Mit Raytracing sollte man sich nicht groß beschäftigen, denn das kann mit Rastergrafik nicht konkurrieren, weil man sich damit nicht beschäftigt". Schöner Zirkelschluss :|
Nein, dass sage ich gar nicht.
Du gehst nur von der Annahme aus, Raytracing soll eine "bessere Qualität" liefern. Das soll es gar nicht. Es soll einfach nur billiger werden. Das ist der Sinn hinter Raytracing.
Und Raytracing GPUs mit dem Aufwand einer Rastarizer GPU ist mitnichten billiger.
Hvoralek
2008-05-25, 13:41:39
Nein, dass sage ich gar nicht.
Du gehst nur von der Annahme aus, Raytracing soll eine "bessere Qualität" liefern.Ich erinnere mich nicht, mich hier zu Zielen von/ Erwartungen an Raytracing geäußert zu haben. Ein Umstieg würde wohl lohnen, wenn man mit gleichem Aufwand bessere Ergebnisse bekommt oder aber auch gleiche Ergebnisse mit geringerem Aufwand (Du möchtest anscheinend letzteres betonen).
Mir geht es darum, dass ein Vergleich zwischen den beiden Verfahren, gleich, unter welchem Gesichtspunkt er stattfindet, von einer jeweils gleichermaßen ordentlichen Umsetzung beider Verfahren ausgehen muss. Dass Raytracing auf Universal- CPUs ggü. hardwarebeschleunigter Rastergrafik nicht in Echtzeitberechnungen konkurrenzfähig ist, ist klar. Das behauptet m.W. auch niemand. Bei der Frage, ob und wann sich RT im Massenmarkt lohnt, muss man aber unterstellen, dass auch dafür zumindest halbwegs passende Hardware genutzt wird.
Es soll einfach nur billiger werden. Das ist der Sinn hinter Raytracing.
Und Raytracing GPUs mit dem Aufwand einer Rastarizer GPU ist mitnichten billiger.Nach Deiner Zielsetzung wäre die entscheidende Frage, ob man dieselben Ergebnisse wie einer Raster- GPU mit einem einfacheren Raytracingchip (oder einem einfacheren arithmetischen Coprozessor in Software) erreichen könnte.
Aquaschaf
2008-05-25, 14:14:34
Mir geht es darum, dass ein Vergleich zwischen den beiden Verfahren, gleich, unter welchem Gesichtspunkt er stattfindet, von einer jeweils gleichermaßen ordentlichen Umsetzung beider Verfahren ausgehen muss.
Production Quality Raytracing-Software existiert doch. Und die wird nur eingesetzt wenn es notwendig ist. Von Software-Raytracing vs. Software-Rasterizing kann man einen analogen Schluss zu Hardwarelösungen ziehen.
Es macht aber nicht sehr viel Sinn beide Ansätze als sich gegenseitig ausschließend zu betrachten. Beides gehört zur großen Trickkiste der Computergrafik. Raytracing bedeutet auch nicht "realistisch und physikalisch korrekt"; entsprechende Software verwendet eine ganze Reihe von Vereinfachungen und Tricks.
Avalox
2008-05-25, 14:26:14
auch gleiche Ergebnisse mit geringerem Aufwand (Du möchtest anscheinend letzteres betonen).
Nein. Es gibt noch einen anderen viel viel wahrscheinlicheren Fall.
"schlechteres Ergebnis, bei geringeren finanziellen Aufwand".
Klingt erst mal weit hergeholt, ist es aber nicht, es begleitet tagtäglich uns in unserer Umwelt und natürlich ist der PC davon dominiert. Der Trend heißt "hinreichend". Optimieren in einer hinreichenden Realisierung.
Mir geht es darum, dass ein Vergleich zwischen den beiden Verfahren, gleich, unter welchem Gesichtspunkt er stattfindet, von einer jeweils gleichermaßen ordentlichen Umsetzung beider Verfahren ausgehen muss.
Raytracing hat heute schon gewonnen, nur sehen dieses viele nicht. Raytracing wird in die 3D Grafik Welt Zuhause einziehen. Das steht schon jetzt fest. Ob kombiniert oder ausschliesslich liegt mehr an dem praktischen Drumherum und steht natürlich noch nicht fest. Aber auf jeden Fall wird Raytracing in Zukunft an Bedeutung gewinnen.
Und wie immer liegen in solchen Umbrüchen Chancen und diese wollen eben viele nutzen.
Nach Deiner Zielsetzung wäre die entscheidende Frage, ob man dieselben Ergebnisse wie einer Raster- GPU mit einem einfacheren Raytracingchip (oder einem einfacheren arithmetischen Coprozessor in Software) erreichen könnte.
Ich denke doch mal ganz stark, dass es in eine völlig andere Richtung gehen wird. Natürlich wird sich Raytracing nicht in einer Umgebung durchsetzen, wie wir diese heute haben. Der PC von Morgen wird anders aussehen. Die Schlacht um die Processinghoheit im PC tobt ja schon lange und hat die CPU heute in eine sehr dominante Rolle getragen und dabei ständig das Aussehen des PCs geändert. Dann kamen die GPUs, aber nun ist die Zeit gekommen, dass die CPU Hersteller direkt diese unliebsame Konkurrenz angehen. Es ist doch kein Zufall, dass Intel grade nun jetzt Raytracing so nach vorne drückt. Man will schlicht nur ein Design liefern und dieses natürlich allein.
Exxtreme
2008-05-25, 14:46:26
Der Vergleich von Software- Raytracing (zumal auf hierfür unnötig flexiblen Allzweckprozessoren) mit hardwarebeschleunigter Rastergrafik hinkt aber auch ziemlich. Wie schnell wäre wohl ein Software- Rasterizer, der mit den Ressourcen solcher Demos entwickelt würde, und wie schnell Raytracing auf einem spzialisierten Chip mit den Eckdaten moderner GPUs?
Die Frage ist wozu man Echtzeitraytracing dann noch braucht. Für Spiele sicherlich nicht.
Die Frage ist wozu man Echtzeitraytracing dann noch braucht. Für Spiele sicherlich nicht.
Brauchen tut man für Spiele auch die heutige Grafik nicht.
Auch wird bei den Hardwareherstellern kein vernünftiger Mensch Raytracing mittelfristig als Ersatz für Rasterisierung ansehen. Da geht es hauptsächlich um die Ergänzung des Renderings um die Möglichkeit selektiv Strahlen schießen zu können.
Der Krieg Rasterisierung vs Raytracing ist absolut hirnrissig. Man muss versuchen, das Beste aus beiden Welten zu vereinigen.
Brauchen tut man für Spiele auch die heutige Grafik nicht.
Auch wird bei den Hardwareherstellern kein vernünftiger Mensch Raytracing mittelfristig als Ersatz für Rasterisierung ansehen. Da geht es hauptsächlich um die Ergänzung des Renderings um die Möglichkeit selektiv Strahlen schießen zu können.
Der Krieg Rasterisierung vs Raytracing ist absolut hirnrissig. Man muss versuchen, das Beste aus beiden Welten zu vereinigen.
Wieso muss man?
Eins steht fest, der Krieg hat in der Tat begonnen, jetzt erst recht.
Zum Thema abwerben.
Leute, seid nicht so naiv. Intel steht finanziell klar besser da, das wird niemand bstreiten (können:))
Der Punkt ist, das NV ebenfalls Asche ohne Ende hat. Intel wird nicht unnötig viel Kohle für KnowHow zahlen können, wenn NV heir ebenfalls verstärkt investiert. Allein aus wrtschaftlichen Gründen, den Kreislauf den Intel bei sich pflegt, wird man nicht aufgrund einiger Abwerbeaktionen in den Sand stecken. Es werden Alternativen gesucht, wärend dieser Prozess (Leute von anderen abzuwerben) sich über einen längeren Zeitraum ziehen wird.
Man kann nicht einfach hier und dort hin und sagen, hey, wieviel zahlen die dir, wir geben dir doppeltX-D
Klar ist, der Krieg hat begonnen!
NV hat die besseren Möglichkeiten für einen Präventivschlag und Intel den deutlich längeren Atem.
Ich bin gespannt!
Aquaschaf
2008-05-25, 15:34:27
Eins steht fest, der Krieg hat in der Tat begonnen, jetzt erst recht.
Es macht keinen Sinn von einem Krieg zwischen Rasterization und Raytracing zu reden, wenn man nicht von einem so unrealistisch simplen Modell der Welt ausgeht wie z.B. Daniel Pohl.
Das ist ungefähr so realitätsfremd wie ein Streit um CISC vs. RISC am Beispiel heutiger Prozessorarchitekturen. Man werfe einen Blick auf professionelle Render-Software. Es gibt weder das Raytracing-Verfahren noch das Rasterization-Verfahren. Und nirgendwo wird ausschließlich Raytracing oder Rasterization eingesetzt.
Es macht keinen Sinn von einem Krieg zwischen Rasterization und Raytracing zu reden, wenn man nicht von einem so unrealistisch simplen Modell der Welt ausgeht wie z.B. Daniel Pohl.
Das ist ungefähr so realitätsfremd wie ein Streit um CISC vs. RISC am Beispiel heutiger Prozessorarchitekturen. Man werfe einen Blick auf professionelle Render-Software. Es gibt weder das Raytracing-Verfahren noch das Rasterization-Verfahren. Und nirgendwo wird ausschließlich Raytracing oder Rasterization eingesetzt.
Wer sprach denn von einem Krieg zwischen diesen beiden Rendertypen?
Intel und NV waren gemeint.
Eins steht fest, der Krieg hat in der Tat begonnen, jetzt erst recht.
Die wichtigen Leute sind alle durch Zusammenarbeit auf den Boden der Tatsachen geholt worden. Der "Krieg" findet zwischen Leuten mit Halbwissen statt.
NV hat die besseren Möglichkeiten für einen Präventivschlag und Intel den deutlich längeren Atem.
Präventivschlag mit komplettem Umstieg auf Raytracing? Das würde die Mitbewerber sehr freuen. :)
Hvoralek
2008-05-25, 15:47:14
Nein. Es gibt noch einen anderen viel viel wahrscheinlicheren Fall.
"schlechteres Ergebnis, bei geringeren finanziellen Aufwand".Ein schlechteres Ergebnis bei weniger Aufwand kann man prinzipiell auch mit einfacherer Rastergrafik bekommen. Wenn das beste mit RT erreichbare Ergebnis schlechter aussieht als das beste mit Rastergrafik erreichbare, gibt es zwei Möglichkeiten: Entweder sieht es zumindest besser aus als gleich aufwändige Rastergrafik (Dann hätte man "Besseres Ergebnis bei gleichem Aufwand", wenn auch nur in einem Teilbereich) oder es sieht ähnlich oder schlechter aus wie ähnlich aufwändige Rastergrafik (Dann lohnt es sich nicht).
Die Frage ist wozu man Echtzeitraytracing dann noch braucht. Für Spiele sicherlich nicht.Ich sehe jetzt keinen Zusammenhang zwischen meinem Äpfel- Birnen- Einwand und dieser Antwort. Wann/ unter welcher Bedingung soll die Frage sein, wozu man Echtzeitraytracing noch brauche? :confused:
Die wichtigen Leute sind alle durch Zusammenarbeit auf den Boden der Tatsachen geholt worden. Der "Krieg" findet zwischen Leuten mit Halbwissen statt.
Präventivschlag mit komplettem Umstieg auf Raytracing? Das würde die Mitbewerber sehr freuen. :)
Was du hineininterpretierst ist mir ehrlich gesagt scheißegal, die Leute die es verstehen, verstehen es, andere wiederum nicht, Schicksal!
Exxtreme
2008-05-25, 15:59:02
Ich sehe jetzt keinen Zusammenhang zwischen meinem Äpfel- Birnen- Einwand und dieser Antwort. Wann/ unter welcher Bedingung soll die Frage sein, wozu man Echtzeitraytracing noch brauche? :confused:
Man muss sich fragen, wo liegen denn die Vorteile von RT damit sich der Umstieg lohnt. :)
Hvoralek
2008-05-25, 16:06:07
Man muss sich fragen, wo liegen denn die Vorteile von RT damit sich der Umstieg lohnt. :)Wenn man fragt, ob sich ein Umstieg lohnt, muss man schon durchspielen, wie sich ein ernsthafter Umstieg auswirken würde. Dass Software- RT mit 7 oder 8 GFLOPS nicht gegen Hardwarerastergrafik mit dem zigfachen allein an Arithmetikleistung mithalten kann, ist klar (und wäre umgekehrt wohl auch so).
Warum muss sich überhaupt jemand fragen, ob sich ein Umstieg lohnen würde?
Im Moment fragen sich das doch wohl hauptsächlich die Vertreter der "alten" Schiene, also die der Rasterisier-Fraktion. Verständlich vielleicht aus deren Sicht, wer läßt sich schon gerne sein Spielzeug madig machen, welches ja eigentlich sehr gut funktioniert ?
Jedesmal wenn ich mir solche Threads wie diesen durchlese, teilen diese sich in zwei Lager:
Die Direct 3-D Abteilung, die i.a. RT Ansätze ablehnen, dem RT eine in absehbarer Zeit akzeptable Geschwindigkeit absprechen, auch unter entsprechender Hardware usw. Und das häufig in einer Art, als würden RT-Leute versuchen, Blei in Gold zu verwandeln.
Die RT - Abteilung die, verständlicherweise, natürlich die Vorteile des RT in den Vordergrund stellt, und dem RT eine (zu?) blumige Zukunft vorhersagt.
Ich als mehr-oder-weniger Laie kann mir nicht vorstellen, warum große Unternehmen wie Intel oder auch NV an einer Sache in einem solchen Umfang forschen, wenn nicht zumindest die Möglichkeit auf Erfolg besteht.
Muss ja nicht dieses Jahr sein. Auch nicht nächstes Jahr. Oder übernächstes.
Mal abwarten.
Wie oft muss man noch erwähnen, dass ein kompletter Umstieg auf Raytracing weder der heilige Gral ist noch die Grafik auf einmal unglaublich besser werden würde?
Es wird Raytracing geben als zusätzliche Technik so wie man das heute im Film auch schon ewig einsetzt wo es Sinn macht.
Wie oft muss man noch erwähnen, dass ein kompletter Umstieg auf Raytracing weder der heilige Gral ist noch die Grafik auf einmal unglaublich besser werden würde?
Es wird Raytracing geben als zusätzliche Technik so wie man das heute im Film auch schon ewig einsetzt wo es Sinn macht.Und wie oft muss man es Leuten wie dir ncoh sagen??????????????????????????
Das niemand vom HEILIGEN GRAL oder noch so toller Grafik spricht.
Das man irgendwann, wenn auch du mal soweit denken könntest, ein kompletter Umstieg nur logisch ist. Ob das in 10 oder 50 Jahren kommt interessiert überhaupt nicht!!!!
Was interessiert ist, das RT langsam fußfassen WIRD, weil die Industrie sich immer mehr danach richtet, so werden auch alle anderen davon betroffen, ob DU willst, oder NICHT! Ob es nun gut ist oder NICHT!!!!
Keine Marktwirtschaft wird vom einen Tag zum anderen alles komplett über Bord werfen, ist doch logisch oder hältst du hier einige für Dumm? So kommt es mir nämlich vor, jedes mal dasselbe!
Wie oft muss man noch erwähnen, dass ein kompletter Umstieg auf Raytracing weder der heilige Gral ist noch die Grafik auf einmal unglaublich besser werden würde?
Es wird Raytracing geben als zusätzliche Technik so wie man das heute im Film auch schon ewig einsetzt wo es Sinn macht.
Nun ja, das ist halt Deine Meinung. Wenn man sich die ganzen Beleuchtungsmodelle ansieht, kommt RT der Wirklichkeit wohl am nächsten. Warum sollte man, wenn man die Geschwindigkeit wirklich mal in den Griff bekommen sollte, noch einen Hybrid Modus verwenden?
Und ehrlich gesagt: Ich vermute mal, das man in 10 Jahren die Hardwarepower für RT haben wird. In 15 vielleicht sogar im Überfluß. Warum sollte dann auch nur irgendjemand noch Rasterisieren und Shader schreiben bis die Finger blutig sind?
Ich glaube nicht, dass die Technik die wir heute haben, und die ca. 15 Jahre alt ist (korrigier mich jemand, falls ich sehr daneben liege) noch bis in alle Ewigkeit Bestand haben wird. Warum sollte Sie auch? Alle Lichtmodelle sind doch mehr oder weniger der Wirklichkeit nachgebildet. Viele Studios machen Werbung mit "Lighting as via RT" etc.
Warum dann also nicht gleich das "richtige" nehmen?
Aquaschaf
2008-05-25, 17:36:18
Warum sollte man, wenn man die Geschwindigkeit wirklich mal in den Griff bekommen sollte, noch einen Hybrid Modus verwenden?
Weil man nie genug Geschwindigkeit hat ;) Wie gesagt: hybride Modelle werden auch in Situationen eingesetzt in denen man die zigtausendfache Rechenleistung zur Verfügung hat wie in einem Desktop-System.
Das man irgendwann, wenn auch du mal soweit denken könntest, ein kompletter Umstieg nur logisch ist. Ob das in 10 oder 50 Jahren kommt interessiert überhaupt nicht!!!!
Ein kompletter Umstieg ist nur logisch, wenn die Anteile an der Berechnung die mit Rasterisierung schneller sind vernachlässigbar klein werden.
Bis dorthin werden wir aber neue Problemstellungen wie volumetrische Modellierung haben.
hältst du hier einige für Dumm?
Stell keine Fragen auf die du lieber keine ehrliche Antwort willst. X-D
Und ehrlich gesagt: Ich vermute mal, das man in 10 Jahren die Hardwarepower für RT haben wird. In 15 vielleicht sogar im Überfluß. Warum sollte dann auch nur irgendjemand noch Rasterisieren und Shader schreiben bis die Finger blutig sind?
Das impliziert, dass wir irgendwann einmal ZUVIEL Rechenleistung haben werden. Eine ziemlich mutige Aussage...
Nochmal als Grundlage. Rasterisierung und Raytracing beschreiben Methoden um ray intersection zu berechnen. Dadurch wird nichts, aber auch garnichts realistischer.
Raytracing hat vorallem Vorteile bei nicht kohärenten Strahlen, wie man sie beispielsweise bei indirekter Beleuchter oder komplizierten Reflektionen hat.
Rasterisierung hingegen bei kohärenten Strahlen wie man sie bei u.a. bei der First Hit Intersection benötigt.
Hier wird sinnlos rumdiskutiert mit Argumente, die an Fanboykriege erinnern (meiner ist aber länger...).
@Aquaschaf
Wäre es für "einfache" Anwendungsfälle (z.B. Spiele) für die Programmierer nicht einfacher, nur eine Schnittstelle bedienen zu müssen, als mehrere?
Und jetzt mal direkt gefragt,
Glaubst Du persönlich, dass das Prinzip der Rasterisierung in 10-15 Jahren noch verwendet wird?
Eben für den Fall, das das Geschwindigkeitsproblem des RT "behoben" sein sollte? Und Dir RT alle Programmiermöglichkeiten geben würde, die Du benötigst und die Rasterisierung eigentlich unnötig macht?
@ anderer Gast
Das impliziert, dass wir irgendwann einmal ZUVIEL Rechenleistung haben werden. Eine ziemlich mutige Aussage...
Ich bin ja eigentlich sogar der Meinung, das wir schon heute mehr als genug Rechenleistung haben. Frage ist natürlich, was man erreichen möchte, bzw. ab wann man mit dem schon erreichten zufrieden ist.
Ich persönlich würde mir mehr Inhalt oder mehr KI wünschen, aber die Geschmäcker sind ja nun bekanntlich verschieden. :)
Das mit dem zuviel beziehe ich auch darauf, da ja der Rechenaufwand bei RT im Verhältnis zum Rasterisieren weniger stark ansteigt. Jedes bischen mehr Grafikkqualität muß heutzutage mit überproportional viel hardwareleistung erkauft werden. Vielleicht wäre das mit RT ja ein wenig anders.
Aquaschaf
2008-05-25, 18:01:58
@Aquaschaf
Wäre es für "einfache" Anwendungsfälle (z.B. Spiele) für die Programmierer nicht einfacher, nur eine Schnittstelle bedienen zu müssen, als mehrere?
Und jetzt mal direkt gefragt,
Glaubst Du persönlich, dass das Prinzip der Rasterisierung in 10-15 Jahren noch verwendet wird?
Eben für den Fall, das das Geschwindigkeitsproblem des RT "behoben" sein sollte? Und Dir RT alle Programmiermöglichkeiten geben würde, die Du benötigst und die Rasterisierung eigentlich unnötig macht?
Wie das aus Sicht derjenigen die es bedienen aussieht muss ja nichts damit zu tun haben was sich dahinter für Verfahren befinden.
In 10 - 15 Jahren? Ja, bei Echtzeitgrafik bin ich mir da sehr sicher. Und aus Offline-Anwendungen wird es vermutlich auch nicht völlig verschwinden.
Das impliziert, dass wir irgendwann einmal ZUVIEL Rechenleistung haben werden. Eine ziemlich mutige Aussage...
Für bestimmte Anwendungen hat man das schon. Aber wir reden von Computergrafik. Und das ist, was den Rechenaufwand den man dafür betreiben kann betrifft, ein Fass ohne Boden.
Zum anderen
ist ein E6300 also der 1,86GHz DualCore Core2Duo in vielen Anwendungen mehr oder minder deutlich langsamer als ein 3,7GHz P4.
bei welchen? schon der Core1 war pro kern und takt etwa doppelt so schnell als der P4 in seiner letzten ausführung, der Core2 hat nochmal was draufgesetzt.
dabei ist die 1,86GHz-variante die kleinste unter den Core2-prozessoren, und diese kann schon mit dem höchstgetakteten P4, auch single-threaded, mithalten. den Core2 gibt es aber auch mit höherem takt, und dieser ist jedem P4 meilenweit überlegen.
Avalox
2008-05-25, 20:38:44
Ein schlechteres Ergebnis bei weniger Aufwand kann man prinzipiell auch mit einfacherer Rastergrafik bekommen.
Nein das geht nicht. Ist doch der Witz an der Sache.
Heutige Core2Duo liegen in der Speicherbandbreite auf ein Niveau einer der ersteren Geforce. Die grossen Vorteile von heutigen 3D Karten gehen immer einher mit einer deutlichen Erhöhung der Speicherbandbreite.
Die Anforderungen an den Speicher sind bei den heutigen Grafikkarten komplett anders als bei dem Hauptspeicher. Dass ist doch genau der Grund, weshalb es Grafikkarten in der Form gibt. Damit die GPU einen eigenen Speicher zur Seite gestellt bekommen kann. Der Sinn der Grafikkarte ist nicht die GPU, es ist das eigene Speicherinterface und der Speicher auf der Karte.
Du kannst momentan keine billigere Grafik auf dem jetzigen Prinzip bauen. Du hast immer die Karte mit eigenen Speicher und damit immer den Hauptkostenträger.
Will man keine Grafikkarte mehr, muss man das Problem mit dem Grafikspeicher lösen. Entweder Bandbreite erhöhen, oder Bandbreitenbedarf senken. Am besten macht man beides.
Die grossen Vorteile von heutigen 3D Karten gehen immer einher mit einer deutlichen Erhöhung der Speicherbandbreite.
bei weitem nicht nur, klar speicherbandbreite ist wichtig, aber bei weitem nicht alles.
Avalox
2008-05-25, 20:53:15
bei weitem nicht nur, klar speicherbandbreite ist wichtig
Es ist nicht nur wichtig. Es definiert schlicht die heutige Grafikkarte. Wären diese sehr speziellen Anforderungen an die Speicherbandbreite nicht da, wäre die GPU schon vor Jahren in die CPU gewandert und Grafikkarten in der heutigen Form hätte es vielleicht nie gegeben, oder wären eine absolute Randerscheinung.
Allein die Anforderung an die Speicherbandbreite hat Firmen wie nVidia und ATI schön in einen Submarkt wachsen lassen.
Es ist nicht nur wichtig. Es definiert schlicht die heutige Grafikkarte.
da braucht es noch wesentlich mehr, stark ist die GPU weil sie jede menge spezialisierte hardware hat die ihren job mehr oder weniger "nebenher" erledigt (texturfilter, trisetup ... )
Das man irgendwann, wenn auch du mal soweit denken könntest, ein kompletter Umstieg nur logisch ist
Nein ist es nicht. Man wird immer gewisse Dinge mit Rasterisierung effizienter machen können.
Und komm mir nicht mit 10 Trilliarden Polygonen. Das ist nicht Praxisrelevant, weil mann dann ohnehin LOD braucht.
Avalox
2008-05-25, 21:11:25
da braucht es noch wesentlich mehr, stark ist die GPU weil sie jede menge spezialisierte hardware hat die ihren job mehr oder weniger "nebenher" erledigt (texturfilter, trisetup ... )
Die Grafikkarte, es geht nur um die Grafikkarte. Die Grafikkarte ist nur wichtig, weil auf Ihr die GPU mit einem eigenen Speicherinterface mit hoher Bandbreite arbeiten kann.
Die GPU Funktionalität liesse ich prima in die CPU verpflanzen, wenn nicht das Problem mit der Speicherbandbreite existieren würde. Es gäbe schlicht heute keine Grafikkarten mehr, wenn diese nicht diese exorbitanten Forderungen an die Speicherbandbreite mitbringen würden. Die heutigen CPUs hätten dann zwar 300Mio Transistoren mehr, aber interessieren würde es auch niemanden.
Hvoralek
2008-05-25, 21:14:19
Nein das geht nicht. Ist doch der Witz an der Sache.
Heutige Core2Duo liegen in der Speicherbandbreite auf ein Niveau einer der ersteren Geforce. Die grossen Vorteile von heutigen 3D Karten gehen immer einher mit einer deutlichen Erhöhung der Speicherbandbreite.
Die Anforderungen an den Speicher sind bei den heutigen Grafikkarten komplett anders als bei dem Hauptspeicher. Dass ist doch genau der Grund, weshalb es Grafikkarten in der Form gibt. Damit die GPU einen eigenen Speicher zur Seite gestellt bekommen kann. Der Sinn der Grafikkarte ist nicht die GPU, es ist das eigene Speicherinterface und der Speicher auf der Karte.
Du kannst momentan keine billigere Grafik auf dem jetzigen Prinzip bauen. Du hast immer die Karte mit eigenen Speicher und damit immer den Hauptkostenträger.
Will man keine Grafikkarte mehr, muss man das Problem mit dem Grafikspeicher lösen. Entweder Bandbreite erhöhen, oder Bandbreitenbedarf senken. Am besten macht man beides.Geforce 3/ 4 Ti lagen bei etwa 6 - 10 GiB/s, also etwa in dem Bereich. Bist Du sicher, dass heutige CPUs so viel schneller als die Karten wären, wenn sie alles in Software erledigen müssten?
Ich finde es auch etwas seltsam, dass Du die Steckkarte als solche als "Hauptkostenträger" bezeichnest. Würdest Du es nicht als Möglichkeit zur Kostenreduzierung sehen, dass Du auch statt hunderte Euro für eine nach heutigen Maßstäben schnelle Karte auszugeben, auch einfach für 30€ eine 34xx kaufen kannst? Natürlich mit geringerer Bandbreite und auch sonst langsamer, eben weniger Leistung mit weniger Kosten/ Aufwand. Wieso soll das nicht gehen?
Es gäbe schlicht heute keine Grafikkarten mehr, wenn diese nicht diese exorbitanten Forderungen an die Speicherbandbreite mitbringen würden.
man könnte wenn man wollte durchaus für die cpu eine genügend hohe bandbreite realisieren, freilich würde das meinboard um einiges teurer werden, weshalb es ziemlicher overkill wäre da nicht jeder eine high-end-grafik braucht.
Die Grafikkarte, es geht nur um die Grafikkarte. Die Grafikkarte ist nur wichtig, weil auf Ihr die GPU mit einem eigenen Speicherinterface mit hoher Bandbreite arbeiten kann.
Die GPU Funktionalität liesse ich prima in die CPU verpflanzen, wenn nicht das Problem mit der Speicherbandbreite existieren würde. Es gäbe schlicht heute keine Grafikkarten mehr, wenn diese nicht diese exorbitanten Forderungen an die Speicherbandbreite mitbringen würden. Die heutigen CPUs hätten dann zwar 300Mio Transistoren mehr, aber interessieren würde es auch niemanden.
Das wage ich zu bezweifeln. Es ergibt überhaupt keinen Sinn zwei unterschiedliche ASICs auf das gleiche Die zu pflanzen wenn man nicht mal die Einheiten gemeinsam benutzen kann.
Und davon sind wir heute noch weit weg.
Aquaschaf
2008-05-25, 21:22:55
Der Sinn der Grafikkarte ist nicht die GPU, es ist das eigene Speicherinterface und der Speicher auf der Karte.
Die Anforderungen an die GPU sind doch auch komplett anders als an eine General Purpose CPU.
Avalox
2008-05-25, 21:32:37
Ich finde es auch etwas seltsam, dass Du die Steckkarte als solche als "Hauptkostenträger" bezeichnest. Würdest Du es nicht als Möglichkeit zur Kostenreduzierung sehen, dass Du auch statt hunderte Euro für eine nach heutigen Maßstäben schnelle Karte auszugeben, auch einfach für 30€ eine 34xx kaufen kannst? Natürlich mit geringerer Bandbreite und auch sonst langsamer, eben weniger Leistung mit weniger Kosten/ Aufwand. Wieso soll das nicht gehen?
Die alte GeForce 256 DDR hatte doch schon 5GByte/s Bandbreite zum Speicher.
Solche Karten wie die 30€ Karten funktionieren wirtschaftlich allein nicht, wenn es nicht auch die teureren Garfikkarten gäbe. Es ist wie bei den Konsolen GPUs, es sind die Nebenprodukte der Entwicklung. Eine zusätzliche Produktivierung.
Du schöpfst schön den kompletten Markt ab. Im Porfolio hast du es als Firma schon fertig entwickelt.
Nun kommen z.B. die 199€ Notebooks und natürlich wirst du auch für diese Geräte eine billige GPU von den Herstellern bekommen. Solch einen Chip in Silizium zu packen ist ausgesprochen billig. Es geht immer nur darum ein Design bis aufs letzte auszuquetschen und die explodierenden Kapazitäten zu füllen. 300mm Wafer und 45nm Strukturen bedeuten automatisch ein höheren Output, der muss irgendwie genutzt werden und wenn die Chips für 2$ verkauft werden. Der Hersteller muss nur aufpassen sich nicht selbst zu sehr Konkurrenz zu machen.
Was billig wäre ist eine CPU zu verkaufen, welche den Käufer den Mehrwert bietet keine Grafikkarte extra kaufen zu müssen und 30€ machen heute aus einer einfachen CPU eine spitzen CPU.
Da jeder eine CPU braucht wären es keine extra Kosten. Den Kostenvergleich für CPU ohne GPU und extra GPU gäbe es gar nicht. Weil es GPU lose CPUs gar nicht mehr gäbe auf dem Markt. Nur extra Grafikkarten würden dann noch extra kosten.
@CODA
Das wage ich zu bezweifeln. Es ergibt überhaupt keinen Sinn zwei unterschiedliche ASICs auf das gleiche Die zu pflanzen wenn man nicht mal die Einheiten gemeinsam benutzen kann.
Und davon sind wir heute noch weit weg.
Das sehe ich aber doch als Henne/Ei Problem. Es ist wie es heute ist, weil es sich zudem entwickelt hat und nicht umgekehrt.
In der CPU/GPU Parallelwelt gäbe es vielleicht ein paar spezielle Grafikbeschleuniger für Hochleistungsworkstations. So wie heute. Aber einen separaten GPU Chip als Standard könnte sich sicherlich niemand überhaupt vorstellen. Vielleicht wäre die Grafik untern Strich schlechter, aber auch dieses würde niemanden ohne Vergleich auffallen.
Hvoralek
2008-05-25, 21:54:43
Die alte GeForce 256 DDR hatte doch schon 5GByte/s Bandbreite zum Speicher.Nanu, man hat Leistungssteigerungen fast ohne Bandbreitensteigerungen hinbekommen :|
Solche Karten wie die 30€ Karten funktionieren wirtschaftlich allein nicht, wenn es nicht auch die teureren Garfikkarten gäbe. Es ist wie bei den Konsolen GPUs, es sind die Nebenprodukte der Entwicklung. Eine zusätzliche Produktivierung.Sicher sind das heute Nebenprodukte. Aber das ist nicht zwingend. Wenn schlicht niemand mehr als 50€ für eine GraKa ausgeben würde, würde der Markt auch nur mit denen funktionieren. Es gäbe weniger Umsatz, weniger Mittel für R&D, sodass die Entwicklung insgesamt wohl verlangsamt würde - Aber warum sollte das nicht funktionieren?
Was billig wäre ist eine CPU zu verkaufen, welche den Käufer den Mehrwert bietet keine Grafikkarte extra kaufen zu müssen und 30€ machen heute aus einer einfachen CPU eine spitzen CPU.Für die paar Schaltungen, die Du für 30€ mehr auf eine CPU bekommst, bekommst Du aber auch nicht allzu viel GPU- Leistung - und wie Du eine entsprechend höhere Bandbreite (die CPU als solche braucht ja auch noch welche) ohne eigenen Speicher lösen möchtest, ist mir auch nicht recht ersichtlich.
DR.ZEISSLER
2008-05-25, 22:00:10
Ändert nichts an der Tatsache, daß Raytracing im jetzigen Stadium spieleuntauglich ist und man sehr viel mehr Rechenleistung bräuchte um es auf jetziges Rastering-Niveau zu bringen.
absolut korrekt!
Avalox
2008-05-25, 22:06:51
Nanu, man hat Leistungssteigerungen fast ohne Bandbreitensteigerungen hinbekommen :|
Na ja. Der Nachfolger GeForce2 hatte schon bis 7,3GByte/s Speicherbandbreite. Die GeForce 3 hatte ähnlich viel und die Geforce 4 mit über 10GByte/s dann doch ordentlich mehr.
Sicher sind das heute Nebenprodukte. Aber das ist nicht zwingend. Wenn schlicht niemand mehr als 50€ für eine GraKa ausgeben würde, würde der Markt auch nur mit denen funktionieren. Es gäbe weniger Umsatz, weniger Mittel für R&D, sodass die Entwicklung insgesamt wohl verlangsamt würde - Aber warum sollte das nicht funktionieren?
Ne. Die GPUs heute leben von ihrem massiven Vorsprung vor der CPU auf ihrem spezialisierten Gebiet. Der GPU Hersteller muss immer vor dem CPU Hersteller auf der Hut sein, den er hat die spezielle Anwendung. Der GPU Hersteller braucht die schnelle Entwicklung, auch für diesen gilt das Mooresche Gesetz, den mit dem sind ihn die Processing Konkurrenten eben die CPU Hersteller auf den Fersen.
eine entsprechend höhere Bandbreite (die CPU als solche braucht ja auch noch welche) ohne eigenen Speicher lösen möchtest, ist mir auch nicht recht ersichtlich.
Jetzt schließt sich doch der Kreis. Z.B. kann ich diese Anforderungen senken, wenn man auf ein Rendering Verfahren umsteigt, welches eine geringere Anforderung an die Speicherbandbreite hat. Dieses gekoppelt mit Speicheranbindungen welche eine höhere Speicherbandbreite auf das MB bringen (z.B. Tripple /Quad Channel Speicher und integrierte Speichercontroller im ersten aber sicherlich nicht letzten Step) und wir werden sehen wie dieses ausgeht.
Interessant wird es mit dem Intel Larrabee. Dieser Chip wird den API Markt für Intel umgestallten helfen. Er wird technologisch wie ein stiller Paukenschlag in den Markt fahren. Belächelt von allen, wird er sein Werk im Hintergrund vollbringen. Wohl dem, wer sich schnell mit diesem Chip befassen wird.
Aquaschaf
2008-05-25, 22:35:39
Jetzt schließt sich doch der Kreis. Z.B. kann ich diese Anforderungen senken, wenn man auf ein Rendering Verfahren umsteigt, welches eine geringere Anforderung an die Speicherbandbreite hat.
Was ändert sich den durch Raytracing großartig an den Anforderungen? Wir arbeiten ja immer noch mit Texturen, Vertices und müssen das Bild ausgeben.
Das sehe ich aber doch als Henne/Ei Problem. Es ist wie es heute ist, weil es sich zudem entwickelt hat und nicht umgekehrt.
Ist es nicht. Die Anforderungen an die Pipeline-Struktur sind gänzlich unterschiedlich.
Auch dein so heiß geliebter Larrabee eignet sich nicht als Desktop-Prozessor.
Avalox
2008-05-25, 23:13:09
Was ändert sich den durch Raytracing großartig an den Anforderungen? Wir arbeiten ja immer noch mit Texturen, Vertices und müssen das Bild ausgeben.
Am ZBuffer z.B.. Was frisst den dieser heute bei den üblichen Rasterizern?
1/4 der Bandbreite bestimmt.
Auch dein so heiß geliebter Larrabee eignet sich nicht als Desktop-Prozessor.
Ich mag dieses ganz bestimmt nicht.
1/4 der Bandbreite bestimmt.
niemals, der z-buffer lässt sich sehr gut komprimieren.
Aquaschaf
2008-05-26, 00:47:29
Am ZBuffer z.B.. Was frisst den dieser heute bei den üblichen Rasterizern?
1/4 der Bandbreite bestimmt..
Selbst wenn man sehr großzügig annehmen würde der Bandbreitenbedarf würde auf 1/2 sinken - es ändert sich doch nichts prinzipielles an den Anforderungen.
Avalox
2008-05-26, 19:00:24
Selbst wenn man sehr großzügig annehmen würde der Bandbreitenbedarf würde auf 1/2 sinken - es ändert sich doch nichts prinzipielles an den Anforderungen.
Hmm, ich weiss nicht. Denke schon, dass der Weg sehr interessant ist. Grade Intel mit ihren schön dichten Speicherzellen könnten in ein paar Generationen von CPUs ordentlich Speicher auf die Chips als grossen Cache packen.
Auch dort wäre der Wegfall des ZBuffers von Vorteil.
Na wie auch immer, ich bin geneigt in dem Intel Raytracing Anlauf mehr zu sehen, als nur eine einfache Erweiterung für spezielle Grafikeffekte.
DR.ZEISSLER
2008-05-26, 19:05:43
...Na wie auch immer, ich bin geneigt in dem Intel Raytracing Anlauf mehr zu sehen, als nur eine einfache Erweiterung für spezielle Grafikeffekte.
und genau das ist der fall, denn der intel-ceo sagte ja: diese technik wird DAS INTERNET revolutionieren, bevor er daniel pohl auf die bühne rief. Ich suche noch das Video, kann es aber nicht finden ? Hat Intel die IDF Videos mit Pohl Q4 RAYTRACED GELÖSCHT ?
Doc
christoph
2008-05-26, 19:10:43
war jemand von euch mal auf der rayscale seite? ich kann da nichts von raytrace hardware entdecken, sieht viel eher aus als hatten die fast raytracing software entwickelt....
Scose
2008-05-26, 19:14:39
lies mal den ersten Post ;)
christoph
2008-05-26, 19:19:11
jo, ich hatte nur die 3dcenter news von vorgestern gelesen:
Das Unternehmen hat einen Hybrid-Renderer entwickelt, welcher sowohl das gewöhnliche Rasterizer-Verfahren als auch das Raytracing-Verfahren einsetzt.
Hmm, ich weiss nicht. Denke schon, dass der Weg sehr interessant ist. Grade Intel mit ihren schön dichten Speicherzellen könnten in ein paar Generationen von CPUs ordentlich Speicher auf die Chips als grossen Cache packen.
Raytracing ist dort wo man es braucht (keine Primärstrahlen) viel zu unkonherent dass Cache was bringen würde.
Es hat schon seinen Grund warum auch Larrabee erstmal ein Rasterizer ist und dann evtl. noch ganz gut raytracen kann. Wie jeder andere D3D11-Beschleuniger wohl auch weil es immer flexiblere Streamprozessoren sind.
Aquaschaf
2008-05-26, 19:31:43
Hmm, ich weiss nicht.
Es lässt sich mit Sicherheit sagen dass Speicherbandbreite kein entscheidender Punkt ist der Raytracing als Ersatz für Rasterization interessant machen würde. Denn: auch dort wo man nicht mit spezialisierter Grafikhardware mit hoher Speicherbandbreite rechnet verwendet man Hybridmethoden, bzw. immer nur so viel Raytracing wie nötig.
Warts ab...Intel hat deutlich mehr finanzielle Mittel als NV.
mfg Nakai
Bestimmt nicht, NVIDIA gibt derzeit 1 Miliarde US Doller pro Jahr nur für ihre GPU Entwicklung aus! Intel kann bestimmt nicht einfach aus dem nichts noch mehr Geld für die GPU Entwicklung aus geben, das würde wohl den Hauptaktionäre von intel schon gar nicht passen, besonders jetzt wo eine hohe Straff Zahlung seites der EU droht.
Zudem bedeutet mehr Geld auch nicht gleich immer ein besseres Produkt, da ist zum beispiel lang Jährige erfahrung in dem Bereich viel wichtiger und die kann man mit Geld nicht kaufen.
ScottManDeath
2008-05-29, 05:48:53
Bestimmt nicht, NVIDIA gibt derzeit 1 Miliarde US Doller pro Jahr nur für ihre GPU Entwicklung aus! Intel kann bestimmt nicht einfach aus dem nichts noch mehr Geld für die GPU Entwicklung aus geben, das würde wohl den Hauptaktionäre von intel schon gar nicht passen, besonders jetzt wo eine hohe Straff Zahlung seites der EU droht.
Zudem bedeutet mehr Geld auch nicht gleich immer ein besseres Produkt, da ist zum beispiel lang Jährige erfahrung in dem Bereich viel wichtiger und die kann man mit Geld nicht kaufen.
Umsatz NVIDA 4,097.86 Mio US$
Gewinn NVIDIA 1,869.28 Mio US$
Börsenwert NVIDIA 13.08 Milliarden US$
Umsatz Intel 38,334.00 Mio US$
Gewinn Intel 19,904.00 Mio US$
Börsenwert Intel 134.44 Milliarden US$
http://finance.google.com/finance?q=NASDAQ:NVDA
http://finance.google.com/finance?q=NASDAQ:INTC
D.h. Intel kann NVIDIA aus der Portokasse kaufen, rein theoretisch.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.