Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist Kyro 3 tot
Astrabakra
2005-03-21, 22:42:49
Neues gibt es über den Wunderchip ja nicht mehr.
es muss heißen: Ist Kyrp3 tot?
;)
ich denke ja.
Der Kyro3 (alias Serie4) ist schon seit 2 Jahren tot :|
Und die Serie5 wird es wohl nie auf dem PC geben, weil es keinen Produktionspartner dafür gibt. Vielleicht ja nächste Generation.
tombman
2005-03-22, 07:50:53
wer soll denn bitte noch mit ATI/Nvidia mithalten, wenn diese dieses Jahr noch >300 Milionen Transistoren Chips verbauen? :)
Adam D.
2005-03-22, 07:52:06
wer soll denn bitte noch mit ATI/Nvidia mithalten, wenn diese dieses Jahr noch >300 Milionen Transistoren Chips verbauen? :)
Traurig aber wahr :(
Brudertac
2005-03-22, 07:53:14
Ganz einfach, eine kleine Firma die einen ausdauernden Geldgeber hat
und selber sehr gute neue Ideen. Genau so läufts doch meistens wenn
den grossen mal wieder das Zittern gelehrt wird. :cool:
tombman
2005-03-22, 07:59:06
Ganz einfach, eine kleine Firma die einen ausdauernden Geldgeber hat
und selber sehr gute neue Ideen. Genau so läufts doch meistens wenn
den grossen mal wieder das Zittern gelehrt wird. :cool:
die besten Ideen helfen nix, wenn dein Gegner doppelt und dreifach soviele Transistoren im Gepäck hat wie du - da wirst einfach overpowered und aus is ;)
Brudertac
2005-03-22, 08:03:50
Nene, das lass ich so nicht gelten. Es gab immer wieder solche "Machtwechsel" und die wird es auch weiterhin geben.
Da gabs doch zum Beispiel letztens einen Bericht über RealTime Rendering
von ner Deutschen Uni oder so. (Hab die Details nicht mehr im Kopf)
Wenn die das weiterverfolgen und nen Starken Partner finden dann
könnte das einiges bewegen.
Gohan
2005-03-22, 08:29:00
die besten Ideen helfen nix, wenn dein Gegner doppelt und dreifach soviele Transistoren im Gepäck hat wie du - da wirst einfach overpowered und aus is ;)
Die Kyro II hate damals im vergleich zur GeForce 2 GTS auch relativ wenige Transistoren und konnte ihr relativ gut die Stirn bieten ;)
Modulor
2005-03-22, 08:42:50
Ganz einfach, eine kleine Firma die einen ausdauernden Geldgeber hat
und selber sehr gute neue Ideen.
Das kann aber auch wie im Fall von ImgTec den gegenteiligen Effekt haben - nämlich dass man das sichere Terrain nicht verlässt und keine Experimente wagt... :rolleyes:
Shink
2005-03-22, 08:49:00
Und vor dem Kyro I (der ja nur einen niedrigeren Takt hatte) war der Ruf von ImgTec im PC-Bereich IMHO schlechter als der von S3 heute.
The_Invisible
2005-03-22, 09:11:37
Nene, das lass ich so nicht gelten. Es gab immer wieder solche "Machtwechsel" und die wird es auch weiterhin geben.
Da gabs doch zum Beispiel letztens einen Bericht über RealTime Rendering
von ner Deutschen Uni oder so. (Hab die Details nicht mehr im Kopf)
Wenn die das weiterverfolgen und nen Starken Partner finden dann
könnte das einiges bewegen.
das glaubst du doch selbst nicht das da irgendwer daherkommt und NVIDIA/ATI im Highendbereich Paroli bietet (siehe XGI & S3)? Manche tun so als würden bei NVIDIA/ATI nur Leute mit Hauptschulabschluß sitzen die dort gerade angefangen haben.
Die Erfahrung beider Firmen ist einfach zu groß, wenn XGI & S3 aber am Ball bleiben wird vielleicht mal was mit ernsthafter konkurrenz in x jahre
mfg
Cyphermaster
2005-03-22, 09:33:18
die besten Ideen helfen nix, wenn dein Gegner doppelt und dreifach soviele Transistoren im Gepäck hat wie du - da wirst einfach overpowered und aus is ;)
Das ist falsch. Der Kyro-Chip war seinerzeit noch billiger als eine GeForce2 MX200, trotz mehr Features (EBM, 32bit Farbe ohne Geschwindigkeitseinbuße, 4fach Multilayer, spitzenmäßige Filterung/Bildqualität...) und leistete je nach Spiel praktisch genauso viel wie eine GeForce 2 Ti200. Daß sich die Kyro da nicht durchsetzen konnte, lag viel am nicht vorhandenen Marketing und dem fehlenden Geld für Weiterentwicklung. Mit einem HW T&L-Chip und kleinerem Fertigungsprozeß für höhere Taktungen z.B. wären die Kyro/Kyro2-Chips durchaus Mainstream-tauglich gewesen, denke ich. Für eine Karte, die mit müden 175/175 getaktet war und billigen SDR, aber kein HW T&L (damaliges Hype-Feature) verbaut hatte (GF2MX: 195/195, manche glaub ich sogar 205/205??, DDR-RAM und HW T&L), war sie einfach nur beeindruckend leistungsfähig; allerdings auch wesentlich zu spät gebracht.
Die Gamer haben halt damals noch die Reviews der GeForce 256 im Hinterkopf gehabt, die die schnellste Karte war - und dann wurde eben auch die GeForce2 gekauft, weil die dann ja automatisch auch die Beste sein muß... Hype halt. Was der Gamer nicht kennt, kauft er nicht!
Ich würde mir die Serie5 auf jeden Fall gerne ansehen, evtl. auch kaufen - aber so wie's aussieht, fehlt es einfach an der Markt-Akzeptanz. Intel hat seine embedded-Lösungen, genau wie nVidia, SiS, VIA und ATI; die Serie5 müßte also schon in den direkten Grafikkarten-Markt. Nur ist dieser Markt vom ewigen "ATI vs. nVidia"-Grabenkrieg so polarisiert, daß die Kunden Alternativen zu den beiden Großen praktisch weder kennen, noch sich groß dafür interessieren (Man siehe XGI/S3/Matrox). Erst, wenn ein positiver Test einer Serie5-Karte die Gamerwelt "erschüttern" würde, wäre sie ein Durchbruch - aber da die Serie5 nicht als Chip verkauft wird, sondern als Technologie, hätte der Lizenznehmer das volle finanzielle Risiko des Kampfes gegen ATI und nVidia zu tragen.
Solange, bis also einer dieses Risiko eingeht, dürfte die Kyro3/Serie5 genau wie eventuelle Nachfolger ziemlich "tot" sein, was den PC-Markt angeht. Bei Konsolen hab ich allerdings keine Ahnung.
Cyphermaster
2005-03-22, 09:47:13
Die Erfahrung beider Firmen ist einfach zu groß, wenn XGI & S3 aber am Ball bleiben wird vielleicht mal was mit ernsthafter konkurrenz in x jahre
So lang muß das nicht dauern. Gute Ideen sind ja vorhanden, insbesondere wenn ich mir manche konstruktiven Details des DeltaChrome ansehe. Aus Fehlern lernen und die eigenen guten Ideen fördern braucht nicht unbedingt so lange. Ich sehe z.B. den GammaChrome bereits in einer guten Position, um im immer breiter werdenden Markt für Gaming-fähige HTPCs oder Silent-Rechner die "Riesen" anzugreifen.
(Was ich allerdings in dem Zusammenhang auch schade finde, ist, daß die Idee einer "umprogrammierbaren" GPU in Richtung der P9/P10-Karten offensichtlich nicht wirklich weiterverfolgt wird. Auch eine gute Idee)
Erfahrung schön und gut, aber das ist eben auch nicht Alles!
robbitop
2005-03-22, 09:51:47
So lang muß das nicht dauern. Gute Ideen sind ja vorhanden, insbesondere wenn ich mir manche konstruktiven Details des DeltaChrome ansehe....
Die da wären?
Cyphermaster
2005-03-22, 10:28:44
- 50% geringere Stromaufnahme als vergleichbare Karten (grade beim Thema Kühlung/Lautstärke sehr wichtig!)
- Trilineare TMUs, optimale Texturfilterung
- Sehr gutes AA (bis 9x9)
- Hierarchial Z Buffer
Leider krankt der DC sehr an der Bandbreite, den Treibern usw., aber wenn diese Stärken im Chipdesign beibehalten werden, ist das schon sehr vielversprechend.
stickedy
2005-03-22, 10:51:35
Es ist aber auch immer alles eine Frage der Effizienz: ATI und NVidia sind riesige Firmen geworden (OK, ATI war das schon vor dem 3D-Boom) und diese neigen dazu
1. einen grossen Verwaltungswasserkopf zu haben, was die Entwicklung verlangsamt (in der Zeit in der ein Entwickler zig Formulare ausfüllen und unterschreiben lassen muss, um eine neue Druckerpatrone zu erhalten, kann er eben nicht entwickeln)
und
2. Haben beide mit immer mehr Produkte und Entwiclungen in unterschiedlichen Marktsegmente, Stichwort Chipsätze, Handies, Konsolen etc.
Ich will damit natürlich nicht sagen, dass beide Firmen taumelnde Riesen wären, aber eine kleine dynamische Firma kann da durchaus mithalten, aufschließen und überholen wenn es gut läuft. Mann muss es auch mal so sehen: Effektiv tritt seit ATI seit dem R300 technisch auf der Stelle, zwar erfolgreich, aber trotzdem hat sich seitdem außer höherer Geschwindigkeit durch mehr Pipelines und höheren Taktraten nichts mehr getan.
Bei NVidia sieht das etwas anders aus, aber NV48/NV47 oder-wie-auch-immer-der-nächste-Chip-heißen-wird werden auch auch nur ein neuer Aufguss des NV40/NV45 sein. Gut, man SLI reingewurschtelt, aber das ist imho eher net Notlösung weil man einfach zwischenzeitlich anscheinend an Grenzen in der Produktion und in der Entwicklung stösst.
Und zu diesen Grenzen können andere Firmen mit genug Geld im Rücken sicherlich auch vorstossen - imho.
Und im übrigen sehe ich bis auf das Geld auch kein Problem das eine andere Firma auch einen Grafikchhip mit > 300 Mio. Transistoren bauen kann.
robbitop
2005-03-22, 10:57:17
- 50% geringere Stromaufnahme als vergleichbare Karten (grade beim Thema Kühlung/Lautstärke sehr wichtig!)
- Trilineare TMUs, optimale Texturfilterung
- Sehr gutes AA (bis 9x9)
- Hierarchial Z Buffer
Leider krankt der DC sehr an der Bandbreite, den Treibern usw., aber wenn diese Stärken im Chipdesign beibehalten werden, ist das schon sehr vielversprechend.
1.)ist zwar nett, bringt im jedoch Wettbewerb nichts. Deswegen musste man chipintern viele Restriktionen eingehen, die große Flaschenhälse bilden.
Beispielsweise die PS ALU's haben anscheinend keinerlei MiniALU's und dürfen vieles per Makro machen. Das kostet viele Takte. Die Vertexshader betrifft das noch viel sätrker.
2.)es handelt sich hierbei nicht um tri TMU's sondern um fast-tri TMU's. Leider funktioniert das nur in Direct3D, da die Berechnungsformel für die trilineare Filterung genau festgelegt ist und fast Tri sich nicht daran hällt.
Heutzutage nimmt aritmetische Rechenleistung einen wichtigeren Faktor ein als Füllrate. Bei komplexen Shadern dauert die Berechnung eines Pixels schon mal 10-100 Takte. Genug Zeit, um zu filtern.
Die beiden Quads scheinen nicht in unterschiedlichen Dreiecken agieren zu können. Das gibt besonders bei kleinen Dreiecken einen starken Verschnitt.
Bei Alphablending bricht das Columbia Design stark ein (ein anderer Flaschenhals)
3.)Das leider aufgrund fehlender Leistung und zu kleiner rendertarget Size nicht nutzbar ist (in aktuellen Treibern ist das Samplemuster von 2x so verschoben dass es sogar gar nichts mehr bringt..genaueres dazu später)
4.)Das ist keine Neuheit und ich bin mir derzeit noch sehr unsicher, ob dieser überhaupt funktioniert. Laut meinen Messungen verwirft der Columbia mit Mühe und Not gerade mal so viele Pixel wie er Farbwerte schreiben kann.
Mit HirZ könnte man besonders bei großen verdeckten Flächen sehr viel mehr verwerfen.
5.)Bandbreite UND Bandbreiteneffizienz. Dazu gehört das Schreiben von großen Cachelines und eine vorhandene Granularität im Speichercontroller. Da ist der Deltachrome kein Meister.
Das Columbia Design hat sicher einige Stärken aber auch mehr als genug Flaschenhälse. Flaschenhälse, die in einem Refresh nicht zu beseitigen sind. Flashenhälse die Restriktionen aus mangelndem R&D resultieren.
Gammachrome wird pro Takt und Pipe schneller, aber Wunder erwarte ich nicht. Erst Destinantion Films wird dort sicher besser. Aber IMO fehlt es Mittelfristig einfach an allem bei S3, um NV und ATI paroli bieten zu können (Know How, Man Power, Simulatoren, Tools, Geld ect.).
Für eine erfolgreiche Produktpalette braucht es Vielfalt, Konstanz und ein mächtiges "Flagschiff".
robbitop
2005-03-22, 11:08:02
Es ist aber auch immer alles eine Frage der Effizienz: ATI und NVidia sind riesige Firmen geworden (OK, ATI war das schon vor dem 3D-Boom) und diese neigen dazu
1. einen grossen Verwaltungswasserkopf zu haben, was die Entwicklung verlangsamt (in der Zeit in der ein Entwickler zig Formulare ausfüllen und unterschreiben lassen muss, um eine neue Druckerpatrone zu erhalten, kann er eben nicht entwickeln)
und
2. Haben beide mit immer mehr Produkte und Entwiclungen in unterschiedlichen Marktsegmente, Stichwort Chipsätze, Handies, Konsolen etc.
Ich will damit natürlich nicht sagen, dass beide Firmen taumelnde Riesen wären, aber eine kleine dynamische Firma kann da durchaus mithalten, aufschließen und überholen wenn es gut läuft. Mann muss es auch mal so sehen: Effektiv tritt seit ATI seit dem R300 technisch auf der Stelle, zwar erfolgreich, aber trotzdem hat sich seitdem außer höherer Geschwindigkeit durch mehr Pipelines und höheren Taktraten nichts mehr getan.
Bei NVidia sieht das etwas anders aus, aber NV48/NV47 oder-wie-auch-immer-der-nächste-Chip-heißen-wird werden auch auch nur ein neuer Aufguss des NV40/NV45 sein. Gut, man SLI reingewurschtelt, aber das ist imho eher net Notlösung weil man einfach zwischenzeitlich anscheinend an Grenzen in der Produktion und in der Entwicklung stösst.
Und zu diesen Grenzen können andere Firmen mit genug Geld im Rücken sicherlich auch vorstossen - imho.
Und im übrigen sehe ich bis auf das Geld auch kein Problem das eine andere Firma auch einen Grafikchhip mit > 300 Mio. Transistoren bauen kann.
Du vergisst, dass ATI R400/R500 und R600 entwickelt hat (R600 ist sicher noch nicht fertig designed).
Was NV angeht, war in den letzten Jahren auf Seiten der Innovation eine ganze Menge. NV3x und NV4x waren teuer und innovativ. Bei aktuellen Transistorzahlen kann nicht jedes Jahr ein neues Design rausgehauen werden.
NV4x IMO ein verdammt fortschrittliches Design, welches lediglich von Serie5 und R500/600 in diesem Punkt überflügelt worden wäre (Geometry Shader bsw). NV4x beherrscht neben SM3 noch FP16 Texturfilterung, FP16 Blending und einen FP64 Framebuffer. IMO wird ATI technologisch da noch eine Weile hinterherhinken im PC Bereich.
NV und ATI haben je fixe Teams für die GPU Entwicklung. Beide sollten in diesem Bereich 2-3 Teams besitzen. Wenn man sich NV3x und 4x anschaut, laufen die Teams verdammt effizient. Man verfügt über hervoragende Simulatoren und Tools. Ich sage nur 222Mio Transistoren @130nm.
Was die R400->500->600 Architektur kann, weiß ich nicht genau, aber auch hier hat ATI viel Arbeit hineingesteckt. So bürokratisch ist das nicht. Die Entwicklung von einer GPU Serie kostet NV/ATI heutzutage ~400Mio $. Die stehen auch bereit. Die jeweiligen Chefingenieure sorgen schon dafür, dass das rund läuft. Trägheit kann man sich in dem Business bei der Konkurenz nicht erlauben.
Handy, Chipsätze ect haben ihre eigenen Standorte und Teams. ATI und NV haben extra Firmen dafür akquiriert.
Ich sage nicht, dass es unmöglich ist, dass es einen dritten Spieler geben wird. Aber wenn dann nur durch Konstanz und über einen sehr langen Zeitraum. Auf Schlag hat weder PVR/MGA/S3 noch XGI die Kraft etw vergleichbares in vergleichbaren Zyklen zu bringen.
Corny
2005-03-22, 11:14:11
Ich glaub auch wenn XGI, S3 oder auch PowerVR einen neuen Wunderchip bringen würde, also Leistung im Gebiet einer Radeon X850 und Geforce FX 6800 Ultra, dann würde das alleine nicht reichen!
Problem wird sein, das nahezu alle aktuellen Games auf ATI und NVidia Optimiert werden. Der neue Wunderchip ist also im 3DMark, in Doom3, in FarCry und allen wichtigen Benchmark-Spielen schnell, weil die Treiber darauf Optimiert sind. Aber wenn dann ein eher weniger gehyptes und bekannes Spiel kommt - nehmen wir einfach mal Swat4, dann wird das evtl sogar auf dem neuen Wunderchip mit Grafikproblemen zu rechnen haben, weil die Spiele-Entwickler den neuen Chip nicht beachtet haben. Die Treiber Programmierer können da auch nicht alles gutmachen.
Ich denke das jede Chip-Schmiede langsam anfangen muss. Die spiele Entwickler müssen die Chips erstmal mittesten. Wenn dann beispielsweise auf XGI's Mainstreamlösungen alle aktuellen Games ohne größere Ausnahmen gut laufen und keine Grafikfehler bringen, dann kann XGI eine Bombe landen und ohne Probleme ATI und NVidia übertrumpfen (passende Technik vorausgesetzt)
was ich damit sagen möchte: Ein schneller Chip alleine reicht noch lange icht! Er muss überall akzeptiert und integriert werden.
€dit: diese Problem hatten ja die Kyro Karten auch zum teil. Es gab Spiele in denen haben sie jede Geforce2 abgehängt, dann gabs aber wieder Spiele bei denen sie einfach versagt haben. Oft sicherlich mangels Support der Spiele Entwickler, die den (damals neuen) Chip einfach noch nicht kannten bzw integriert haben
Gaestle
2005-03-22, 11:25:55
So wie ich die vagen Informationen bezüglich des Nicht-Stattfindens des Launches der Serie5 Mitte 2004 verstanden habe, interssiert sich das Management von PowerVR nicht die Bohne für PC-Lösungen.
Nach dem was ich in Foren gelesen habe, soll Serie5 ein sehr konkurrenzfähiges High-End-Design gewesen sein, es existierten wohl auch schon funktionierende Samples (oder sogar ganze Karten), allerdings wie gesagt:
das Management wollte wohl nicht.
Somit ist PowerVR für mich erstmal gestorben.
Grüße
ATI und NV können nicht mit allen Richtungen der möglichen PC Grafik bauen und testen. Es wird immer jemanden geben, der eine schlaue Idee hat, auf die weder ATI noch NV kommen. Es kommt nur auf die Umsetzung später an, und genau da liegt der Haken.
PowerVR ist eine Ideenschmiede, die sicher die IMHO wesentlich mehr Innovationskraft als NV und ATI bietet, allerdings designen die eben keine Chips (maximal Prototypen).
Die brauchen einen Partner, der das Konzept kauft, einen möglichst effizienten Chip designt und den bei einer leistungsfähigen Chipschmiede fertigen lässt (TSMC, UMC, IBM, Intel, STM o.Ä.). Das Chipdesign ist aber noch ein gutes Stück Arbeit und kostet Geld, das anscheinend niemand gewillt ist, zu investieren. Es müssen ja auch teure gute Debug- und Designtools und teure Leute, die was davon verstehen, her. Um Treiberentwicklung muss man sich allerdings garnet kümmern, das passiert bei PowerVR.
Bei XGI oder S3g sieht der Fall aber genau andersherum aus. Optimale Fertgung, Leute mit Erfahrungen mit Chipdesigns, aber hier hapert es an stimmigen Konzepten und Treiberentwicklung, wobei das S3 momentan besser beherrscht und zumindest das Gammacromekonzept sehr effizient erscheint ;)
Ich finde es ganz schön anmassend zu behaupten, dass S3 oder XGI das niemals schaffen würden mit den Grossen mitzuspielen.
Das S3 mit dem DC relativ erfolgreich war, liegt ganz einfach daran, dass die Fertigung ein limitierender Faktor ist, auf den die IHVs nur sehr beschränkt Einfluss haben. Man kann sich nur in den Grenzen des fertigungstechnisch Machbaren bewegen.
In der Geschichte ist es immer wieder vorgekommen, dass schon totgesagte IHVs Chips auf den Markt brachten, die zu einem grossen Mainstreamerfolg wurden. Gute Beispiele hierfür waren der NV Riva128 (gegen Bigplayer ATI und Technologieführer 3dfx), S3 Savage4 (gegen Bigplayer NV und ATI) und STM Kyro (gegen NV). Letztenendes haben aber die meisten Hersteller keine Perspektive mehr gesehen, bis auf NV, ATI und 3dfx, wovon letzendendes nur 2 übrig blieben ;)
An diesen Zeiten scheint sich ja was geändert zu haben, wenn plötzlich wieder 2 Player auf den Markt drängen. Das liegt vermutlich daran, dass die Weiterentwicklung der Fertigungstechnik mehr Zeit kostet als noch vor ein paar Jahren. Die technologische Entwicklung der Grafikchips macht auch nicht mehr so grosse Sprünge wie damals, es wird hauptsächlich nurnoch parallelisiert atm. Wenn man sich überlegt wann der R300 rauskam und dass dieser eigentlich immernoch konkurrenzfähig ist... ATI gurkt mit 3 Jahre alter Technik erfolgreich auf dem HighEnd-Markt rum, das wäre vorher gänzlich undenkbar gewesen. Auch wird IMHO nicht mehr ganz soviel Geld verdient, weil die Kosten pro Karte im Gegensatz zu damals recht hoch sein dürften und die Preise seit jeher absolut konstant sind.
robbitop
2005-03-22, 11:38:26
Bei XGI oder S3g sieht der Fall aber genau andersherum aus. Optimale Fertgung, Leute mit Erfahrungen mit Chipdesigns, aber hier hapert es an stimmigen Konzepten und Treiberentwicklung, wobei das S3 momentan besser beherrscht und zumindest das Gammacromekonzept sehr effizient erscheint ;)
Du behauptest, der GC wäre effizient, obwohl du keine brauchbaren Informationen dazu hast (es sei denn, du hast schon einen)?
Wenn der Gammachrome deiner Meinung nach effizient sein, soll, was ist denn der RV360? ;)
Exxtreme
2005-03-22, 12:30:15
Nur ist dieser Markt vom ewigen "ATI vs. nVidia"-Grabenkrieg so polarisiert, daß die Kunden Alternativen zu den beiden Großen praktisch weder kennen, noch sich groß dafür interessieren (Man siehe XGI/S3/Matrox).
Darum geht's nicht. Man muss sich nur anschauen was XGI, S3 und Matrox treibermässig so abziehen. Da hapert es am meisten. Matrox schafft es kaum einen OpenGL-Treiber zur Verfügung zu stellen, der mehr kann als Q3A ablaufen zu lassen. Und was XGI abgezogen hat, das ist unverschämt ohne Ende. Da wundert es nicht, daß die Gamer zu den "großen" greifen. Da laufen die Spiele wenigstens so wie sie sollen.
robbitop
2005-03-22, 12:36:44
Darum geht's nicht. Man muss sich nur anschauen was XGI, S3 und Matrox treibermässig so abziehen. Da hapert es am meisten. Matrox schafft es kaum einen OpenGL-Treiber zur Verfügung zu stellen, der mehr kann als Q3A ablaufen zu lassen. Und was XGI abgezogen hat, das ist unverschämt ohne Ende. Da wundert es nicht, daß die Gamer zu den "großen" greifen. Da laufen die Spiele wenigstens so wie sie sollen.
Also zumindist die Treiber bei S3 werden stetig besser. Man merkt es fehlt eben an Simulatoren. Ich halte die Treiberqualität für mitwirkend an der Marktsituation allerdings bei weitem nicht für so dominant, wie du sie hier offenbar einschätzt.
stickedy
2005-03-22, 12:37:01
Da hast du sicher recht! Deswegen geht S3 ja auch nach einem Schema vor:
DeltaChrome war der Einstieg um Erfahrungen zu sammeln (zum üben quasi), mit GammaChrome sollen die gewonnen Erfahrungen umgesetzt werden und mit Destination Films will man dann nächstes Jahr ganz oben mitspielen.
Und wenn man sich mal die Entwicklung der DeltaChrome-Treiber in den letzten 12 Monaten anschaut, dann muss man schon sagen, dass S3 da einiges auf die Reihe gebracht hat. Klar, der OpenGL-Teil ist immer noch sehr dürftig, aber immerhin scheinen mittlerweile die meisten OpenGL-Spiele soweit zu laufen. Das wird sich dann denk ich mit dem GammaChrome noch weiter verbessern. Und wenn die Entwicklung so weiter geht, dann dürfte S3 für Destination Films einigermaßen gute Treiber anbieten können.
Du behauptest, der GC wäre effizient, obwohl du keine brauchbaren Informationen dazu hast (es sei denn, du hast schon einen)?
Wenn der Gammachrome deiner Meinung nach effizient sein, soll, was ist denn der RV360? ;)
Es ist eine Spekulation ;)
Ailuros
2005-03-22, 13:05:31
Handy, Chipsätze ect haben ihre eigenen Standorte und Teams. ATI und NV haben extra Firmen dafür akquiriert.
Was PDA/mobile betrifft haben weder noch etwas nennenswertes fuer die erste Generation vorzeigen koennen.
IMG hat momentan aber guten Grund IMHO sich auf diesen Markt und anderen wie DAB oder T-DVB mit voller Kraft zu konzentrieren, da sie erstens bis jetzt sehr erfolgreich in diesen Maerkten waren und zweitens IP auch ein wahrer Vorteil fuer solche Maerkte ist. IP ist im Gegensatz Irrsinn fuer PC standalone Produkte, ausser ein grosser Semikonduktor-Hersteller will sich mal in den Markt wieder wagen, was aber als eher unwahrscheinlich sein sollte.
Ich sage nicht, dass es unmöglich ist, dass es einen dritten Spieler geben wird. Aber wenn dann nur durch Konstanz und über einen sehr langen Zeitraum. Auf Schlag hat weder PVR/MGA/S3 noch XGI die Kraft etw vergleichbares in vergleichbaren Zyklen zu bringen.
XGi oder S3 koennten sich nach einigen Jahren durch erfolgreiche mainstream/budget Veroeffentlichung langsam aufkrempeln; es handelt sich ja auch bei beiden nur ausschliesslich um Grafik-core Entwicklung, bei IMG ist die Masche ganz anders und so viele Projekte/Maerkte koennen sie nun auch wieder nicht bearbeiten am Ende.
Nur fuer MBX sind es 6 verschiedene cores momentan und man muss ja auch mit jedem einzelnen Partner eng zusammenarbeiten fuer die SoC-Integrierung. AFAIK plant IMG in der Zukunft auch eigene HW herzustellen fuer diesen Markt, als auf die Partner warten zu muessen (wie spaet dass MBX-SDK veroeffentlicht wurde konnte man ja sehen).
Ich hab das Gefuehl dass IMG bei der Entwerfung des Serie-5 Konzepts eher an einen potentiellen Console-Design gedacht hat. Es kam nichts dabei raus und alles was davon uebrig blieb am Ende ist Arcade. Das Risiko und die Unkosten fuer einen zeitlichen PC-Release waren wohl doch zu hoch am Ende.
NV4x IMO ein verdammt fortschrittliches Design, welches lediglich von Serie5 und R500/600 in diesem Punkt überflügelt worden wäre (Geometry Shader bsw). NV4x beherrscht neben SM3 noch FP16 Texturfilterung, FP16 Blending und einen FP64 Framebuffer.
Entwickler sind stets froh mit mehr Moeglichkeiten; float Texturfilterung, blending und auch Framebuffer wuerde ich im Zusammenhang zu NV4x und S5 erstmal gar nicht vergleichen. Schon gar nicht wenn der letztere nicht nur float HDR + FSAA Kombinationen erlaubt und 256MB Speicher um einiges mehr freien Platz uebrig lassen.
Vorsicht mit floating point framebuffers und TBDRs.
Es gab mal eine Angabe auf B3D von einem Inginieur dass 64bpp HDR mit 64xFSAA bis zu 1024*768 moegliche waere, wurde aber schnell wieder geloescht (dass da Leistung wohl mies ist sollte offensichtlich sein; sollte nur die Moeglichkeiten des Speicherplatzes illustrieren; vorsicht auch mit den Anzahl der AA samples; Marketing-Quatsch).
Ailuros
2005-03-22, 13:11:52
Da hast du sicher recht! Deswegen geht S3 ja auch nach einem Schema vor:
DeltaChrome war der Einstieg um Erfahrungen zu sammeln (zum üben quasi), mit GammaChrome sollen die gewonnen Erfahrungen umgesetzt werden und mit Destination Films will man dann nächstes Jahr ganz oben mitspielen.
Und wenn man sich mal die Entwicklung der DeltaChrome-Treiber in den letzten 12 Monaten anschaut, dann muss man schon sagen, dass S3 da einiges auf die Reihe gebracht hat. Klar, der OpenGL-Teil ist immer noch sehr dürftig, aber immerhin scheinen mittlerweile die meisten OpenGL-Spiele soweit zu laufen. Das wird sich dann denk ich mit dem GammaChrome noch weiter verbessern. Und wenn die Entwicklung so weiter geht, dann dürfte S3 für Destination Films einigermaßen gute Treiber anbieten können.
Falls es S3 schafft mit Destination Films zumindest einen sehr starken mainstream WGF2.0 chip ~Mitte 2006 auf den Regalen zu haben, werden sie natuerlich auch fuer dementsprechendes Ansehen sorgen. Wenn's aber dann doch erst Anfang 2007 oder spaeter wird, hilft es am Ende dann auch nicht mehr viel.
Das Problem aller Kleinen bis jetzt war, dass sie stets immer doch zu spaet mit ihren Loesungen angekommen sind. XGi wird versuchen sich mit dem XG45 mehr als ein Jahr spaeter als NV43 sich durchzuboxen. Was daraus wirklich wird hab ich noch keine Ahnung, auf jeden Fall ist das Ding auch zu spaet dran.
Solange, bis also einer dieses Risiko eingeht, dürfte die Kyro3/Serie5 genau wie eventuelle Nachfolger ziemlich "tot" sein, was den PC-Markt angeht. Bei Konsolen hab ich allerdings keine Ahnung.
SEGA will eine neue Konsole bauen, und da kommt dann laut Gerüchten eine
auf heutigem technischem Stand aktualisierte Serie 5 rein.
Zwischen SEGA und Imgtec gab es da auch schon diesbezüglich Verhandlungen.
Quasar
2005-03-22, 20:23:07
wer soll denn bitte noch mit ATI/Nvidia mithalten, wenn diese dieses Jahr noch >300 Milionen Transistoren Chips verbauen? :)
die besten Ideen helfen nix, wenn dein Gegner doppelt und dreifach soviele Transistoren im Gepäck hat wie du - da wirst einfach overpowered und aus is ;)
Kewl, dann müsste so ein Montecito mit ~1,7Mrd. Transistoren ja alle Cells der Welt in Grund und Boden rocken. Oder ein simpler RAM-Riegel... ;)
Ausser Transistoren gibt es auch noch das, was man damit anstellt - nicht komplett unwichtig, wie ich meine.
Vor allem fertigen nVidia und ATi ja nichtmal selber. TSMC und UMC ahoi.
Ich denke nicht, dass es ein großes Problem wäre z.B. Gammachrome mit 16 Pipelines zu fertigen.
Da hast du sicher recht! Deswegen geht S3 ja auch nach einem Schema vor:
DeltaChrome war der Einstieg um Erfahrungen zu sammeln (zum üben quasi), mit GammaChrome sollen die gewonnen Erfahrungen umgesetzt werden und mit Destination Films will man dann nächstes Jahr ganz oben mitspielen.
Bietet S3 überhaupt Linux Treiber an?
Ich denke nicht, also können sie die Idee mit dem oben mitspielen auch gleich vergessen.
Schon jetzt hat ATI Probleme ihre Karten zu verkaufen, weil
die Kunden nach Linux Treibern fragen und hier
hat ATI nur Müll vorzuweisen.
Deswegen haben die in den letzten vergangen Wochen auch ihr Linux Treiber Entwicklerteam aufgestockt, aber den Vorsprung den NVidia hat,
den muß ATI erstmal einholen.
Was ich damit sagen will, Linux erhält immer mehr verstärkt Einzug in die Desktop Welt und ohne Linux Treiber hat man schon verloren.
mapel110
2005-03-22, 20:46:01
Bietet S3 überhaupt Linux Treiber an?
Ich denke nicht, also können sie die Idee mit dem oben mitspielen auch gleich vergessen.
Schon jetzt hat ATI Probleme ihre Karten zu verkaufen, weil
die Kunden nach Linux Treibern fragen und hier
hat ATI nur Müll vorzuweisen.
Deswegen haben die in den letzten vergangen Wochen auch ihr Linux Treiber Entwicklerteam aufgestockt, aber den Vorsprung den NVidia hat,
den muß ATI erstmal einholen.
Was ich damit sagen will, Linux erhält immer mehr verstärkt Einzug in die Desktop Welt und ohne Linux Treiber hat man schon verloren.
Soso, also kauft ein Linuxuser für sein 1337 System eine 500 € Karte, um die 2-3 aktuellen Spiele zu zocken(die eben unter Linux laufen). Interessant. :)
Linux-Treiber sind immernoch sehr unwichtig bzw haben ganz sicher keinen relevanten Einfluß auf die Verkaufszahlen aktueller Grafikchips.
Soso, also kauft ein Linuxuser für sein 1337 System eine 500 € Karte, um die 2-3 aktuellen Spiele zu zocken(die eben unter Linux laufen). Interessant. :)
Linux-Treiber sind immernoch sehr unwichtig bzw haben ganz sicher keinen relevanten Einfluß auf die Verkaufszahlen aktueller Grafikchips.
Du übersiehst hier dabei völlig, das der Größte Teil der Leute, die nach Linux Treibern fragen Dual Booter sind und die kaufen auch diese 500 € Karten wenn es sein muß.
Ein Dualbooter will sich aber auch nicht nur mit einer halben Lösung abgeben,
also greift er zu Nvidia, denn die haben gute Linux Treiber,
Kelron
2005-03-22, 21:02:25
SEGA will eine neue Konsole bauen, und da kommt dann laut Gerüchten eine
auf heutigem technischem Stand aktualisierte Serie 5 rein.
Zwischen SEGA und Imgtec gab es da auch schon diesbezüglich Verhandlungen.
Fände ich zwar schön, wenn Sega wieder Konsolen bauen würde, alleine, mir fehlt der Glaube.
Gibt es ernstzunehmende Quellen für das Gerücht ? :|
ShadowXX
2005-03-22, 21:07:41
Du übersiehst hier dabei völlig, das der Größte Teil der Leute, die nach Linux Treibern fragen Dual Booter sind und die kaufen auch diese 500 € Karten wenn es sein muß.
Ein Dualbooter will sich aber auch nicht nur mit einer halben Lösung abgeben,
also greift er zu Nvidia, denn die haben gute Linux Treiber,
Und wie groß ist der Anteil dieser Leute in Prozent??
0,5 oder sogar 0,7 Prozent des Weltmarktes?
Ich glaube nicht, das sich ATI deswegen ernste sorgen machen muss.......
robbitop
2005-03-22, 22:07:46
@AiL
warum habe ich nur das Gefühl, dass du gern und oft in Richtung PVR abschweifst? ;)
stickedy
2005-03-23, 00:17:59
Bietet S3 überhaupt Linux Treiber an?
Ich denke nicht, also können sie die Idee mit dem oben mitspielen auch gleich vergessen.
Das iwrd sich bald erledigen! Es gibt Linux-Treiber fürn DeltaChrome, diese wurden aber noch nicht veröffentlich. imho ist es auch sinnvoller erstmal die Resourcen in die wesentlich wichtigeren Windows-Treiber zu stecken!
Aber: Demnächst wird VIA endlich ihre IGPs mit dem DeltaChrome-Core ausstatten (siehe dazu auch CeBIT-Bericht von 3DC) und spätestens dann werden die Linux-Treiber erscheinen!
VIA/S3 bieten für alle IGPs Linux-Treiber an, das ist also alles andere als Neuland. Zugegebenermaßen sind die Linux-Treiber für UniChrome teilweise nicht besonders toll, aber das sind die Windows-Treiber für die Serie auch nicht - auf deutsch: Es besteht Hoffnung auf gute Linux-Treiber
Frank
2005-03-23, 00:23:13
@AiL
warum habe ich nur das Gefühl, dass du gern und oft in Richtung PVR abschweifst? ;)
Das liegt wohl oder übel am Threadtitel. :D
Ailuros
2005-03-23, 01:44:17
Fände ich zwar schön, wenn Sega wieder Konsolen bauen würde, alleine, mir fehlt der Glaube.
Gibt es ernstzunehmende Quellen für das Gerücht ? :|
Arcade wird es von SEGA geben, wobei da tatsaechlich eine S5 GPU drinstecken wird. Hier geht es aber immer noch ueber low-volume.
Es koennte durchaus sein dass Sammy/SEGA sich fuer eine high volume "Console" entscheiden, aber da sollte man eher auf MBX und handheld Consolen denken.
Fände ich zwar schön, wenn Sega wieder Konsolen bauen würde, alleine, mir fehlt der Glaube.
Gibt es ernstzunehmende Quellen für das Gerücht ? :|
www.mitrax.de
Ailuros
2005-03-23, 01:47:51
@AiL
warum habe ich nur das Gefühl, dass du gern und oft in Richtung PVR abschweifst? ;)
Frank's Antwort duerfte eigentlich ausreichen. Alles andere als PowerVR in diesem Thread ist eher OT :P
Und wie groß ist der Anteil dieser Leute in Prozent??
0,5 oder sogar 0,7 Prozent des Weltmarktes?
Ich glaube nicht, das sich ATI deswegen ernste sorgen machen muss.......
Man kann natürlich weiterhin im Glauben bleiben, daß der Linux Markt
nicht größer als 0,7 Prozent groß ist, aber das hilft alles nichts
wenn einem die Realität überholt.
Bei ATI gab es in den letzten Wochen nicht umsonst verstärkte Bemühungen
vernünftige Linux Treiber hinzubekommen, denn ATI merkt es schon an den Verkaufszahlen.
In welcher Illusion du lebst, siehe oben, bleibt dabei
völlig unwichtig.
Linux ist Desktop ready und verbreitet sich unaufhaltsam
in erheblichem Maße, an diesem Fakt kannst du soviel rütteln wie du willst,
aber wenn du ein Entscheider bei ATI wärst, dann könnte
das bestehen darauf äußerst kostspielig werden.
Ailuros
2005-03-23, 01:52:38
www.mitrax.de
Wo genau steht da was von einer Console (und nein ich meine nicht handheld Geraete)? Auf jeden Fall erwarte ich von SEGA nichts anderes als Arcade-Maschinen mit S5.
Das iwrd sich bald erledigen! Es gibt Linux-Treiber fürn DeltaChrome, diese wurden aber noch nicht veröffentlich. imho ist es auch sinnvoller erstmal die Resourcen in die wesentlich wichtigeren Windows-Treiber zu stecken!
Wozu? Die OpenGL Treiber wird man wohl
kaum für jedes OS einzeln entwickeln.
Wenn man es richtig macht, dann erstellt man möglichst unified OpenGL Treiber.
Direct3d ist natürlich wieder eine Eigenwurscht, aber das sollte
die OpenGL Treiberentwicklung auch nicht aufhalten, denn gute
OpenGL Treiber sind auch unter Windows sehr wichtig.
Wo genau steht da was von einer Console (und nein ich meine nicht handheld Geraete)? Auf jeden Fall erwarte ich von SEGA nichts anderes als Arcade-Maschinen mit S5.
Einfach mal die 1. Seite nach dem Suchwort SEGA durchforsten, dann wirst du es schon finden.
Ailuros
2005-03-23, 01:59:31
Einfach mal die 1. Seite nach dem Suchwort SEGA durchforsten, dann wirst du es schon finden.
Segas nächstes Arcade-System basiert aber auf PowerVRs Serie5 Technologie, womit erste Informationen zur Serie 5 zu erwarten wären. :)
Was genau hab ich verpasst? :|
Kelron
2005-03-23, 02:24:08
Arcade-System = Konsole
Ok, also Spielhalle und für Europa und unsere Wohnzimmer irellevant, allerdings technisch sicherlich interessant... :wink:
stickedy
2005-03-23, 08:22:56
Wozu? Die OpenGL Treiber wird man wohl
kaum für jedes OS einzeln entwickeln.
Wenn man es richtig macht, dann erstellt man möglichst unified OpenGL Treiber.
Direct3d ist natürlich wieder eine Eigenwurscht, aber das sollte
die OpenGL Treiberentwicklung auch nicht aufhalten, denn gute
OpenGL Treiber sind auch unter Windows sehr wichtig.
Hält es aber. S3 hat nicht so viele erfahrene Treiber-Programmierer, die sind noch am Lernen :)
Und die beschäftigen sich eben größtenteils und hauptsächlich mit Direct3D. Und so gut OpenGL auch ist, zwischenzeitlich ist eben der überwältigende Teil der Spiele für D3D programmiert und OpenGL ist erstmal zweitrangig. Das merkt man bei den S3-Treibern schon deutlich...
Trotz allem ist Linux nur ein Nischen-Produkt auf dem Dektop. Das kann man drehen und wenden wie man will.
Demirug
2005-03-23, 08:29:17
Arcade-System = Konsole
Nicht mehr zwingend. In vielen Arcade System steckt inzwischen eine PC Platform. nVidia verkauft sowas auch. Besteht aus einem nForce Board, einer Geforce Karte und einem etwas angepassten Linux. Namco setzt das zum Beispiel ein.
Demirug
2005-03-23, 08:32:05
Hält es aber. S3 hat nicht so viele erfahrene Treiber-Programmierer, die sind noch am Lernen :)
Und die beschäftigen sich eben größtenteils und hauptsächlich mit Direct3D. Und so gut OpenGL auch ist, zwischenzeitlich ist eben der überwältigende Teil der Spiele für D3D programmiert und OpenGL ist erstmal zweitrangig. Das merkt man bei den S3-Treibern schon deutlich...
Zudem sind D3D Treiber auch wesentlich einfacher zu programmieren als OpenGL Treiber. Was sich in Zukunft (neues DDK für Longhorn) noch verschärfen wird.
robbitop
2005-03-23, 09:03:42
Das liegt wohl oder übel am Threadtitel. :D
dann müssen wir den ändern :D
Ailuros
2005-03-23, 10:01:58
Arcade-System = Konsole
Ich hab wohl nicht anderes weiter oben behauptet; ausser Du kannst den Unterschied einer Arcade Maschine und einer Console nicht ganz verstehen.
Die Maschinen die SEGA dafuer plant sind etwas schwer tragbar und sind auch viel zu gross und teuer fuer ein normales Wohnzimmer.
Nicht mehr zwingend. In vielen Arcade System steckt inzwischen eine PC Platform. nVidia verkauft sowas auch. Besteht aus einem nForce Board, einer Geforce Karte und einem etwas angepassten Linux. Namco setzt das zum Beispiel ein.
Demi,
Obwohl die Dinger auch staendig kleiner werden als in der Vergangenheit ist eine Arcade-Maschine ein ganz anderes Bier als eine paar kg schwere Console die in beide Haende passt. Das Arcade-Board wird auch viel zu teuer sein fuer den Normalverbraucher.
Demirug
2005-03-23, 10:16:55
Demi,
Obwohl die Dinger auch staendig kleiner werden als in der Vergangenheit ist eine Arcade-Maschine ein ganz anderes Bier als eine paar kg schwere Console die in beide Haende passt. Das Arcade-Board wird auch viel zu teuer sein fuer den Normalverbraucher.
Ja, ich meinte schon diese Dinger die in den Spielhallen rumstehen. Teilweise mit sehr exotischen Eingabemöglichkeiten bzw Sitzen die sich bewegen können.
Genau in diese Kisten baut Namco PC Technik auf der Basis von Nforce und GeForce ein. Ich hätte sogar fast das komplette SDK dafür bekommen. Dummerweise war das ISO zu groß für den Filemanager des gesicherten Servers.
ShadowXX
2005-03-23, 12:10:30
Man kann natürlich weiterhin im Glauben bleiben, daß der Linux Markt
nicht größer als 0,7 Prozent groß ist, aber das hilft alles nichts
wenn einem die Realität überholt.
Bei ATI gab es in den letzten Wochen nicht umsonst verstärkte Bemühungen
vernünftige Linux Treiber hinzubekommen, denn ATI merkt es schon an den Verkaufszahlen.
In welcher Illusion du lebst, siehe oben, bleibt dabei
völlig unwichtig.
Linux ist Desktop ready und verbreitet sich unaufhaltsam
in erheblichem Maße, an diesem Fakt kannst du soviel rütteln wie du willst,
aber wenn du ein Entscheider bei ATI wärst, dann könnte
das bestehen darauf äußerst kostspielig werden.
Ich habe nicht vom Linux Markt gesprochen, sondern vom Destop Linux markt mit Usern, die eine 500Euro Graka haben.
Und da sind 0,5% des Weltmarktes wahrscheinlich noch zu hoch gegriffen.
Wenn Linux wirklich so wichtig wäre, würde es für jede halbwegs aktuelle HW Linux-Treiber dirket vom Hersteller für die jeweils aktuellen Distris geben....
Das ist nicht mal ansatzweise der Fall.......
ShadowXX
2005-03-23, 12:14:24
Ja, ich meinte schon diese Dinger die in den Spielhallen rumstehen. Teilweise mit sehr exotischen Eingabemöglichkeiten bzw Sitzen die sich bewegen können.
Genau in diese Kisten baut Namco PC Technik auf der Basis von Nforce und GeForce ein. Ich hätte sogar fast das komplette SDK dafür bekommen. Dummerweise war das ISO zu groß für den Filemanager des gesicherten Servers.
Das meinte aber der Gast nicht....für ihn war ein Arcade-System sowas wie die XBox, PS2 oder das SNes.
Zudem sind D3D Treiber auch wesentlich einfacher zu programmieren als OpenGL Treiber. Was sich in Zukunft (neues DDK für Longhorn) noch verschärfen wird.Warum ist das so? Weil MS bei D3D schon einiges übernimmt?
Zudem sind D3D Treiber auch wesentlich einfacher zu programmieren als OpenGL Treiber. Was sich in Zukunft (neues DDK für Longhorn) noch verschärfen wird.Dafür erscheint mir die Programmierung eines OpenGL-Programms einfacher als einer Anwendung, die D3D nutzt. In OpenGL habe ich die glut-Bibliothek. Da kopiere ich ca. 20 Zeilen, die den 3D-Bildschirm initialisieren und Licht einschalten und kann man mit einer handvoll Befehle schon mal Dreiecke (oder Strips) mit Beleuchtung rendern.
Mit glaux kann man dann auch noch pervers einfach Texturen nutzen.
Demirug
2005-03-23, 15:15:17
Dafür erscheint mir die Programmierung eines OpenGL-Programms einfacher als einer Anwendung, die D3D nutzt. In OpenGL habe ich die glut-Bibliothek. Da kopiere ich ca. 20 Zeilen, die den 3D-Bildschirm initialisieren und Licht einschalten und kann man mit einer handvoll Befehle schon mal Dreiecke (oder Strips) mit Beleuchtung rendern.
Mit glaux kann man dann auch noch pervers einfach Texturen nutzen.
Bei Direct3D habe ich D3DX für den ganzen Krempel. Zum Initialisieren braucht man auch ohne D3DX etwa 10 Zeilen Code. Und Dreiecke habe ich auch gleich auf dem Bildschirm. Das einzige was Direct3D fehlt ist der Immediate Mode und das ist auch gut so.
Demirug
2005-03-23, 15:19:29
Warum ist das so? Weil MS bei D3D schon einiges übernimmt?
Zum Teil aber primär wird die Arbeit erleichtert weil man sich nicht damit herumschlagen muss wie die einzelnen Extensions sich zueinader verhalten müssen. Zudem muss man für den gleichen Job auch nicht X unterschiedliche Lösungsansätze implementieren.
Bei Direct3D habe ich D3DX für den ganzen Krempel. Zum Initialisieren braucht man auch ohne D3DX etwa 10 Zeilen Code. Und Dreiecke habe ich auch gleich auf dem Bildschirm. Das einzige was Direct3D fehlt ist der Immediate Mode und das ist auch gut so.Warum?
Wie soll ich beim Vertraut machen mit der API erst mal ein größeres Stück fehlerfreien Code ersinnen?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.