Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum Spielephysikberechung auf Grakas und Ageia?
MGeee
2006-06-12, 22:42:12
Hallo Allerseits,
mit den aufkommenden Dual- und zukünftigen Quad-core CPUs frage ich mich, warum die Spielehersteller die Physikberechnung mit einer extra Karte z.B. von Ageia oder mit einer zweiten Graka (SLI/Crossfire) machen wollen? Ich meine, die zusätzlichen CPU-Cores werden sowieso vorhanden sein, warum soll ich mir eine Ageia oder, was ich noch unsinniger finde, eine weitere Graka ins System bauen? Die Zusatzhardware in Form einer Karte kann ich nur fürs spielen nutzen, mehrere CPU Cores kann ich aber auch im ganz normalen Computer-Alltag nutzen, wenn ich z.B. 5-15 Fenster gleichzeitig aufhabe (z.B. Webdesign mit WYSIWYG, Grafikprogramm, Outlook, Word, usw usw).
Zudem steigt die Verlustleistung meines System generell mehr an, wenn ich eine weitere Steckkarte (Graka oder Ageia) ins System einbauen muss, statt ein oder mehrere zusätzliche CPU-Cores, die ich dank z.B. Cool´n´Quiet auf fast 0 Watt Verlustleistung runter bekomme. Gesamtwirtschaftlich betrachtet ist durch den nochmals erhöhten Energieverbrauch eine weitere extra Graka oder Ageia noch unwirtschaftlicher!
Warum setzt die Industrie dann trotzdem auf solche Lösungen? Ist man so kurzsichtig, dass der einmalige Verkauf ener weiteren Graka oder Ageia höheres Gewicht bei der Entwicklung von Games hat, dass man den wesentlich höheren Energiebverbrauch des Gesamtsystems außer Acht lässt? ... ich meine doch, dass man mit MultiCore-CPU´s wirklich nicht noch weitere Steckkarten benötigt, oder?
Schon SLI/Crossfire-Systeme halte vom Gesichtspunkt des Energieverbrauchs absoluten Unsinn und würde mir ein solches Systema auch nicht aufbauen... (meine persöhnliche Meinung).
Was meint Ihr dazu?
Aquaschaf
2006-06-12, 22:46:18
Ein Prozessor wie er auf Grafikkarte und Physikkarte verbaut ist kann das was man im Allgemeinen unter Physikberechnungen versteht viel schneller erledigen als eine Multicore-CPU.
Bokill
2006-06-12, 22:52:13
Weil ein DSP, FPGA, oder ASIC wesentlich höhere Rechenleistung bei geringeren Strombedarf hat, als eine Universal CPU.
Mit einer CPU kannst du ziemlich alles sehr flexibel berechnen, dafür aber sind dem Rechengrenzen gesteckt.
Ein ASIC ist ein spezieller Chip für genz bestimmte Anwendungen. Sie ist daher sehr starr und nicht so anpassungfähig, was es aber kann erledigt es ziemlich zügig bei geringen Strombedarf. Ein FPGA ist zwar auch sehr flexibel, aber in der Endanwendung doch sehr festgelegt auf Algorithmen die die Hardware besopnders gut und schnell berechnen kann.
Was genau in dem Ageia steckt ist nicht so wirklich klar, das Preisgefüge spricht wohl für ein ASIC.
Im übrigen haben wir die Diskussion schon mehrfach hier im Forum.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=277783
MFG Bobo(2006)
MuLuNGuS
2006-06-13, 08:43:49
die frage bleibt dennoch berechtigt, sicher sollte eine spezielle PPU wesentlich schneller sein.
dennoch sollte aber auch eine zweiter cpu-kern der sich z.b. um die physik kümmert einen verdammt großen unterschied machen, ich denke das wird man in zukünfigen spielen sehen sobald das programmiertechnisch keine hürde mehr darstellt.
MGeee
2006-06-13, 09:11:05
Bokill[/POST]']
Im übrigen haben wir die Diskussion schon mehrfach hier im Forum.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=277783
MFG Bobo(2006)
Da geht es nicht um das, was ich meine. Mir geht es darum, dass es zukünftig "jede Menge" CPU-Cores geben wird. Mit K8L gibt es vier Cores! Warum also extra noch eine Karte für 100-500€ dazukaufen?
Was bei dem ganzen SLI/Crossfire/Ageia/Physik@Graka Kram Umsetzungen nicht mit in das Bewustsein mit einfließt, ist der der Stromverbrauch und die generellen Mehrkosten durch die Hardware, obwohl durch MultiCores bereits Rechenleistung im System frei wird. Es wird zwar generell gesagt, dass Grakas die Physik schneller berechnen können, aber über wieviel schneller sprechen wir hier eigentlich? Ich meine wenn mit K8L vier Cores zur Verfügung stehen, wird es doch kein Problem sein, die Physik auf 2 Cores auszulagern, .. dann hätte die Physik 2x z.B. 2Ghz (mit jeweils einer kompletten CPU!!) zur Verfügung. Außerdem kann ich eine zusätzliche Graka oder Ageia nur beim zocken gebrauchen, nicht aber beim normalen arbeiten mit Windows oder bei surfen.
CF/SLI sehe ich auch als Overkill an den man nicht benötigt, aber Physik ist etwas anderes. Die CPU ist einfach nicht in der Lage komplexe Physikberechnungen zu übernehmen, da sie für solche Zwecke weder konzipiert wurde noch geeignet ist. Die CPU kann ja auch schon lange nicht mehr rendern. Sicher im Moment geht die Physik noch auf der CPU, das wird sich aber irgendwann ändern. Auch Grafikprozessoren taugen nur bedingt als Physikbeschleuniger, ebnen aber den Weg zu dedizierten Physikhardware. Bei der Durchsetzung der Hardware3D Grafik war das damals ähnlich.
Der vergleich von HOT ist garnichtmal so verkehrt... 2 Cores sind eben warscheinlich immernoch langsamer als eine PPU (bzw detailärmer) UND die Programmierung ist dabei auch noch schwieriger... (Wenns dann nochmehr CPUs(bzw. Kerne) werden wirds evtl noch komplizierter das so zu Programmieren...)
Wieso packst du dir eine Graka ins System? Die kannst du großteils auch nur zum Gamen nutzen... Für (fast) alles andere wäre Onboardgrafik ausreichend ;)
PS: Sicher wirds auch Games geben die einen extra Kern mit der Physik beauftragen... Nur wirst du da sicher keine Fluidsim. oder ähnliches erwarten können...
PPS: Und ich denke (mittlerweile) auch nichtmehr das PPUs einen solchen Aufrüstwahn (?zwang?) wie GPUs auslösen werden... Physik ist eben nicht so wahrnehmbar wie Grafik. (Ich denke es wird eher wie mit Soundkarten... Es gibt bessere aber wenn du auf Details verzichten kannst tuts auch die alte...)
MGeee
2006-06-13, 09:58:17
Also dann würde ich mir ehern eine Ageia in den Rechner stecken, als eine weitere Graka, die nur für die Physik da ist. Eine zweite Graka kommt mir nicht in den Rechner.
MGeee
2006-06-13, 10:00:54
#44[/POST]']Der vergleich von HOT ist garnichtmal so verkehrt... 2 Cores sind eben warscheinlich immernoch langsamer als eine PPU (bzw detailärmer) UND die Programmierung ist dabei auch noch schwieriger... (Wenns dann nochmehr CPUs(bzw. Kerne) werden wirds evtl noch komplizierter das so zu Programmieren...)
Wieso packst du dir eine Graka ins System? Die kannst du großteils auch nur zum Gamen nutzen... Für (fast) alles andere wäre Onboardgrafik ausreichend ;)
PS: Sicher wirds auch Games geben die einen extra Kern mit der Physik beauftragen... Nur wirst du da sicher keine Fluidsim. oder ähnliches erwarten können...
Eine extra Graka im System ergibt ja noch Sinn, da ich komplett ohne Graka nicht spielen kann. Eine zweite Graka,... mit dem Gedanken kann ich mich irgendwie nicht so recht anfreunden.
MGeee[/POST]']Eine extra Graka im System ergibt ja noch Sinn, da ich komplett ohne Graka nicht spielen kann. Eine zweite Graka,... mit dem Gedanken kann ich mich irgendwie nicht so recht anfreunden.
Ob jetzt PPU oder GPU die Arbeit machen ist mir erstmal egal...
Da zählen dann die darstellbare Detailstufe (doch nur Effektphysik? Oder Alles? Was wird die Graka können?) / Leistung/Geschwindigkeit.
Ausserdem... Wenn ich eine Neue Graka kaufen werde (DX1x) kann ich evtl meine Alte als Physikbeschleuniger weiternutzen ;)
Extra dafür kaufen kommt sowieso nur in betracht wenn GPU>PPU s.o.
drmaniac
2006-06-13, 10:20:57
hm... wir werden in Zukunft ja Dutzende cores und mehr pro CPU bekommen. Was spräche dagegen, wenn zwei davon eben sehr spezielle sind, die sich eben nur auf Physik verstehen :)
Ich denke, so wirds auch mal kommen.
drmaniac[/POST]']hm... wir werden in Zukunft ja Dutzende cores und mehr pro CPU bekommen. Was spräche dagegen, wenn zwei davon eben sehr spezielle sind, die sich eben nur auf Physik verstehen :)
1. Kosten
2. Platz auf dem Waver
3. Sehr begrenzter Nutzungsbereich
4. Mögliche temperaturtechnische Probleme
[...]
Das wirds höchstens geben falls überhaupt ein CPU Hersteller interesse an Physikeinheiten zeigen wird. Und selbst dann höchstens auf speziellen Gamer-Cpu-Serien.
Hamster
2006-06-13, 10:43:40
mal ein anderer denkansatz:
soundkartenhersteller wie creative labs haben eine stark zurückgehenden absatzmarkt, da die onboard chips immer besser werden.
hier gäbe es die wunderbare möglichkeit einen physikbeschleuniger auf die soundkarte zu integrieren. so hätte man 2 gründe sich solch eine steckkarte zuzulegen. ich vermute auch, daß dies die karten nur unwesentlich teurer machen würde, ist doch der potentielle markt immer noch um einiges größer als der für die reinen physikbeschleuniger....
Du sagst es denkansatz...
Schön wärs sicher... und der Kauf schon fast gebonkt.
Aber dazu müssten sich die Hersteller erstmal zusammentun. Und selbst dann werdens wohl noch 2 Karten... Mit 2 Produkten lässt sich mehr verdienen als mit einem 2in1 Produkt.
Kommt Gamephysik kommt Markt. Wars bei der Graka anderst? ;)
MGeee
2006-06-13, 12:33:07
Also wenn Ageia in Games so sehr benötigt wird, wie eine Graka für die 3D-Darstellung, dann würde ich mir eine spezielle PPU-Graka holen. Da aber ATI/NV bereits an eigenen Lösungen basteln (HavokFX), kann es eine Weile dauern, bis sich irgendwas von beidem am Markt durchsetzen wird.
Da wohl bald jeder neue PC ein Multi-CPU System sein wird, wäre doch hier recht bald eine breite Basis vorhanden und wenn dann die Physikberechnungen auf einem einzelnen, exklusiven Core ausgelagert werden,... würden wir wohl dank der breiten Systemverfügbarkeit von AMD-X2 und Intel Conroe Prozessoren ehern in den Genuss von Physik in Spielen kommen.
Die Basis an SLI/Crossfire Systemen oder die Verbreitung von Ageia Karten wird wohl auch zukünftig nicht zunehmen, davon ist auszugehen.
Daher ist es unlogisch für Publisher, Energien in die Unterstützung solcher Techniken zu stecken (zumindest wird es kaum genutzt).
MGeee[/POST]']
Die Basis an SLI/Crossfire Systemen oder die Verbreitung von Ageia Karten wird wohl auch zukünftig nicht zunehmen, davon ist auszugehen.
SLI/CF: Ja, warscheinlich kommt da nichtmehr viel...
Aegia: Da kann man das so nicht sagen... (Man beachte die (keineswegs guten) Anfänge der Graka)
Mr.Magic
2006-06-13, 12:56:31
Hamster[/POST]']mal ein anderer denkansatz:
soundkartenhersteller wie creative labs haben eine stark zurückgehenden absatzmarkt, da die onboard chips immer besser werden.
hier gäbe es die wunderbare möglichkeit einen physikbeschleuniger auf die soundkarte zu integrieren. so hätte man 2 gründe sich solch eine steckkarte zuzulegen. ich vermute auch, daß dies die karten nur unwesentlich teurer machen würde, ist doch der potentielle markt immer noch um einiges größer als der für die reinen physikbeschleuniger....
Bring Creative nicht auf dumme Gedanken, sonst kaufen die sich noch Ageia. Ich fänd das nämlich überhaupt nicht gut, ich habe meinen PC damit ich das Modularsystem voll ausnutzen kann. Jedesmal wieder den gleichen Soundchip kaufen, nur weil man eine schnellere PPU will ist tatsächlich nur für den Hersteller des Chips wünschenswert.
@MGeee
Von einer Grafikkarte für Physik würde ich absehen. HavokFX taugt nur für die Effektphysik. Die hat zwar momentan noch ~80% Anteil an der Spielephysik, aber doch nur, weil mehr für die CPU nicht zumutbar wäre. Wir wollen uns aber doch verbessern und (langfristig) mehr "echte" Physik in den Spielen als nur weiteres Grafikblendwerk.
Note to self: abwarten ob noch Spiele kommen die vernünftig für Ageia optimiert sind, dann wird sofort eine PPU gekauft.
Aquaschaf
2006-06-13, 13:34:26
MGeee[/POST]']Mir geht es darum, dass es zukünftig "jede Menge" CPU-Cores geben wird. Mit K8L gibt es vier Cores! Warum also extra noch eine Karte für 100-500€ dazukaufen?
Es gibt doch die Möglichkeit auch wenn man genau eine Grafikkarte im PC hat diese teilweise für Physik zu gebrauchen.
Aquaschaf[/POST]']Es gibt doch die Möglichkeit auch wenn man genau eine Grafikkarte im PC hat diese teilweise für Physik zu gebrauchen. Aber du wirst als Gamer kaum abstriche bei der Grafik (die bei aktuellen Games die Graka sowieso beinahe auslastet) machen wollen um dann die Physik dazustellen... oder? Und was ist mit den Non-Highend-PCs?
LordDeath
2006-06-13, 15:22:25
für wie wahrscheinlich haltet ihr befehlserweiterungen bei den quadcore cpus, die die physikberechnung beschleunigen?
Bokill
2006-06-13, 15:30:35
MGeee[/POST]'] ...
Was bei dem ganzen SLI/Crossfire/Ageia/Physik@Graka Kram Umsetzungen nicht mit in das Bewustsein mit einfließt, ist der der Stromverbrauch und die generellen Mehrkosten durch die Hardware, obwohl durch MultiCores bereits Rechenleistung im System frei wird. Der Ageia Chip hat einen Maximalverbrauch von 20 W (http://www.orthy.de/index.php?option=com_content&task=view&id=1580&Itemid=38)* bei 130 nm Fertigungstechnik.. Das ist im Vergleich zur gebotenen Leistung viel weniger Strom, als ein Quadcore. Ein Quadcore ist in 130 nm wirtschaftlich Irrsinn.
Es wird zwar generell gesagt, dass Grakas die Physik schneller berechnen können, aber über wieviel schneller sprechen wir hier eigentlich? Ich meine wenn mit K8L vier Cores zur Verfügung stehen, wird es doch kein Problem sein, die Physik auf 2 Cores auszulagern, .. dann hätte die Physik 2x z.B. 2Ghz (mit jeweils einer kompletten CPU!!) zur Verfügung Du bist noch zu sehr von GHz, Bits und Bytes geblendet.
Der Witz an derartigen ASICS, DSPs, FPGAs ist, dass diese massiv parallel ausgerichtet sein können. Das bedeutet für die passenden Algorithmen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4431920&postcount=23), dass nicht nur zeitgleich 2, oder 3 Gleitkommaeinheiten rechnen können, sondern 8, 16, 32 (...) Gleitkommaeinheiten (ja nach Chip und Architektur).
Der Clearspeed 600 (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=257)* zum Beispiel kann parallel mehr als 60 Operationen mühelos berechnen, da reicht ein Quadcore nicht ran. Der Clearspeed hat eher das Problem, dass auch alle Funktionseinheiten mit Instruktionen gefüllt sein müsssen.
Von welchen Faktor reden wir? Gute Frage, kann ich dir auch leider nicht wirklich beantworten. Es eben nicht nur ein Hardwareproblem, sondern auch ein Softwareproblem. Wenn aber optimale Software läuft, kann zum Beispiel bei einem FPGA locker das hundertfache (http://www.orthy.de/index.php?option=com_content&task=view&id=1761&Itemid=86)* an Rechenleistung gewonnen werden, gegenüber Problemen, die üblicherweise auf einem x86 Prozessor und x86 Software berechnet werden.
Außerdem kann ich eine zusätzliche Graka oder Ageia nur beim zocken gebrauchen, nicht aber beim normalen arbeiten mit Windows oder bei surfen. Jo, der Einwand ist vermutlich richtig. Wobei das auch nur eine Frage der Umsetzung ist. Ein FPGA und/oder Chips wie der Cleraspeed (und mithin auch ein Ageia PhysX) könnte durchaus auch Java beschleunigen, oder spezielle Subroutinen .
MFG Bobo(2006)
* = Orthy.de
Demirug
2006-06-13, 15:33:13
Nur mal so als Information:
Vista enthält eine neue API die es erlaubt Photoshop ähnliche Filter zu schreiben die dann auf der GPU laufen.
Bokill[/POST]'][...]Algorytmen[...]
Algorithmen heißt das, sonst stimmt alles ;)
Piffan
2006-06-13, 17:24:39
Mr.Magic[/POST]']
Von einer Grafikkarte für Physik würde ich absehen. HavokFX taugt nur für die Effektphysik. Die hat zwar momentan noch ~80% Anteil an der Spielephysik, aber doch nur, weil mehr für die CPU nicht zumutbar wäre. Wir wollen uns aber doch verbessern und (langfristig) mehr "echte" Physik in den Spielen als nur weiteres Grafikblendwerk.
Note to self: abwarten ob noch Spiele kommen die vernünftig für Ageia optimiert sind, dann wird sofort eine PPU gekauft.
Wer sagt eigentlich sowas? Wo steht geschrieben, dass HavokFX nur die Effektphysik beschleunigt? Wenn Ati auf einer Vorführung zeigt, dass eine Graka ausschließlich mit der Physik ausgelastet werden kann und es auch eine ältere tut, dann wird das wohl nichts nur mit Grafikblenderei zu tun haben.....
Man kann übrigens mit GPUs auch Soundberechnungen durchführen....
Zweiter Punkt: Wir wollen uns verbessern....Glaubst Du allen Ernstes, dass Spiele geben wird, die ohne dezidierte Physikhardware nicht gut laufen? Welcher Entwickler sollte sowas produzieren......
Insofern denke ich, dass es wohl nur beim Aufbauschen von Effekten bleiben wird, gameplaytechnisch tut sich da so schnell nix. Es sei denn, dass tatsächlich die Sache auf älteren/billigen Grakas läuft....Von daher räume ich der Havok- Lösung klar die besseren Chancen ein.
Demirug
2006-06-13, 17:37:37
HavokFX ist wirklich nur für Effekt Physik gedacht. Allerdings entwickelt ATI ja unabhängig davon eine weitere API die auch Gamephysik unterstützt. Der Grund warum man dafür derzeit eine eigene Karte braucht ist die mangelnde Multitasking eigenschaft der GPUs. Das wird in Zukunft aber besser werden.
Demirug[/POST]']HavokFX ist wirklich nur für Effekt Physik gedacht. Allerdings entwickelt ATI ja unabhängig davon eine weitere API die auch Gamephysik unterstützt. Der Grund warum man dafür derzeit eine eigene Karte braucht ist die mangelnde Multitasking eigenschaft der GPUs. Das wird in Zukunft aber besser werden.
Mit DX10 und den Unified Shadern oder?
MGeee
2006-06-13, 17:49:53
Aquaschaf[/POST]']Es gibt doch die Möglichkeit auch wenn man genau eine Grafikkarte im PC hat diese teilweise für Physik zu gebrauchen.
IMO sehen doch ATI und NV in der Physikberechnung auf Grakas nur einen weiteren Absatzmarkt, um dem Kunden eben nicht eine Graka, sondern zwei Grakas zu verkaufen. Ich als Hersteller würde mir dieses Geschäft auch nicht entgehen lassen. Dafür muss ja "nur" der Graka-Treiber angepasst werden.
Hamster
2006-06-13, 17:49:53
Mr.Magic[/POST]']Bring Creative nicht auf dumme Gedanken, sonst kaufen die sich noch Ageia. Ich fänd das nämlich überhaupt nicht gut, ich habe meinen PC damit ich das Modularsystem voll ausnutzen kann. Jedesmal wieder den gleichen Soundchip kaufen, nur weil man eine schnellere PPU will ist tatsächlich nur für den Hersteller des Chips wünschenswert.
@MGeee
Von einer Grafikkarte für Physik würde ich absehen. HavokFX taugt nur für die Effektphysik. Die hat zwar momentan noch ~80% Anteil an der Spielephysik, aber doch nur, weil mehr für die CPU nicht zumutbar wäre. Wir wollen uns aber doch verbessern und (langfristig) mehr "echte" Physik in den Spielen als nur weiteres Grafikblendwerk.
Note to self: abwarten ob noch Spiele kommen die vernünftig für Ageia optimiert sind, dann wird sofort eine PPU gekauft.
ich würde es bgerüßen.
und ich glaube nicht, daß es notwendig sein wird allmonatlich auf ne stärkere physikeinheit upzugraden....
MGeee
2006-06-13, 17:53:49
Demirug[/POST]']Nur mal so als Information:
Vista enthält eine neue API die es erlaubt Photoshop ähnliche Filter zu schreiben die dann auf der GPU laufen.
Könnte ich auch ganze Anwendungen in der GPU laufen lassen?
Ich habe bei arbeiten hier oft 10-15 Programme offen (Word, Outlook, Firefox, DreamWeaver, etc.).
Wenn es sich nur auf Plugins in Grafikanwendungen beschränkt, habe ich für eine solche API kaum Verwendungsgebrauch, bzw. diese API ergibt für mich keinen echten Anreiz zur zweiten Graka.
Marodeur
2006-06-13, 18:07:23
Für Creative könnt ich mir das gute, alte "Daughterboardsystem" vorstellen. Wie man früher eben die Yamaha-Wavetable auf die SB16 geschnallt hat dann eine Physikeinheit auf die Soundkarte. Der Kunde hat dann noch immer die Wahl: nur Soundkarte oder aufrüsten. Ist auch gut fürs Geschäft von Creative da man 2 Teile verkaufen kann...
Demirug
2006-06-13, 18:08:44
#44[/POST]']Mit DX10 und den Unified Shadern oder?
Das ist eine Sache des Treibermodels und (derzeit) erst ab WDDM 2.1 Pflicht. WDDM 1 muss nur einen Thread pro GPU unterstützen.
Demirug
2006-06-13, 18:13:54
MGeee[/POST]']Könnte ich auch ganze Anwendungen in der GPU laufen lassen?
Ich habe bei arbeiten hier oft 10-15 Programme offen (Word, Outlook, Firefox, DreamWeaver, etc.).
Wenn es sich nur auf Plugins in Grafikanwendungen beschränkt, habe ich für eine solche API kaum Verwendungsgebrauch, bzw. diese API ergibt für mich keinen echten Anreiz zur zweiten Graka.
Die GPU wird immer nur ein Coprozzesor sein. Das beschränkt sich dann natürlich nicht auf Grafikanwendungen. Allerdings sollte es schon etwas sein was massive Rechenleistung benötigt. Normale Büro Anwendungen fallen da kaum darunter.
Ich bin Bokills Links zu orthy.de mal gefolgt und habe dabei folgende Meldung gefunden: Clearspeed in talks with AMD about co-processor (http://www.electronicsweekly.com/Articles/2006/03/15/37936/ClearspeedplansAMDco-processorlinkup.htm) und AMD Interested in Reviving the Math-Co-processor (http://www.dailytech.com/article.aspx?newsid=1276)
Da der Clearspeed CSX600 ja auch geeignet ist Physik Berechnungen schneller durchzuführen als ein Quadcore, wäre ein mathematischer Co Prozessor doch die optimale Lösung? Zumal der im Gegensatz zu Grafikkarten nur 10 Watt verbraucht, mehr als nur Effektphysik bietet und wie ich auf orthy.de dazu passend gelesen habe, sei laut Clearstream eine Hypertransport Anbindung die derzeit bestmögliche Link (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=257), was doch auch für eine Verwendung als Co Prozessor auf AMD Hauptplatinen spricht.
Vielleicht könnte der ja auch wie die 387er Co-Prozessoren auch irgendwann komplett in die Prozessoren eingebaut werden?
Demirug
2006-06-13, 18:49:38
Es könnte sich auch um einen CSX600 mit AM2 Sockel handeln. Es gibt das scheinbar Interesse im Großrechner Bereich für solche Lösungen.
Mr.Magic
2006-06-13, 19:34:34
Hamster[/POST]']ich würde es bgerüßen.
und ich glaube nicht, daß es notwendig sein wird allmonatlich auf ne stärkere physikeinheit upzugraden....
Du hast da genau verdreht was ich meinte.
Gehen wir mal davon aus das der Zyklus bei der PPU wie bei den GPUs ca. 18 Monate beträgt, dann würde dies in diesem Szenario bedeuten, dass man auch alle 18 Monate einen neuen Soundchip kauft. Ich verwende momentan noch meine olle Audigy 2, die habe ich 2002 für ~150€ gekauft. Ich hätte keine Lust für die PPU-Karte jedesmal 'nen Hunni mehr abdrücken zu müssen, und das nur weil eine minimal revidierte SPU mit drauf ist.
Hamster
2006-06-13, 19:38:29
Mr.Magic[/POST]']Du hast da genau verdreht was ich meinte.
Gehen wir mal davon aus das der Zyklus bei der PPU wie bei den GPUs ca. 18 Monate beträgt, dann würde dies in diesem Szenario bedeuten, dass man auch alle 18 Monate einen neuen Soundchip kauft. Ich verwende momentan noch meine olle Audigy 2, die habe ich 2002 für ~150€ gekauft. Ich hätte keine Lust für die PPU-Karte jedesmal 'nen Hunni mehr abdrücken zu müssen, und das nur weil eine minimal revidierte SPU mit drauf ist.
nein, du hast mich nicht verstanden ;)
ich denke nicht, daß eine physikkarte dermaßen schnell veraltert. ich gehe mal davon aus, kauft man eine, reicht einem die ~3 jahre.
und selbst wenn es nicht so kommt: ich lese aus deinen posts heraus, das du durchaus bereit bist schnellere karten in dein system zu pflanzen. was spricht dann dagegen, wenn da noch ne soundkarte mit bei ist. teurer dürfts kaum werden ;)
Mr.Magic
2006-06-13, 20:59:57
Creative hat momentan einen Produktzyklus für Neuentwicklungen von knapp fünf Jahren*. Ich habe kein Problem damit Geld für mein Hobby auszugeben, aber mehrmals das Gleiche kaufen muss nicht sein.
* Soundchips meine ich
Hamster
2006-06-13, 21:16:58
Mr.Magic[/POST]']Creative hat momentan einen Produktzyklus für Neuentwicklungen von knapp fünf Jahren*. Ich habe kein Problem damit Geld für mein Hobby auszugeben, aber mehrmals das Gleiche kaufen muss nicht sein.
* Soundchips meine ich
ich verstehe dein problem nicht.
angenommen eine physikkarte kostet, mangels breiter nachfrage, zwischen 200-300euro.
eine soundkarte mit physikchip ~150euro, da der absatzmarkt um ein vielfaches höher ist.
du würdest also lieber in 3 jahren 2x 400-600euro für einen reinen physicchip ausgeben, als 2x 150euro für ne combokarte? *kopfkratz*
und erneuerung wirds immer geben. und sei es nur eax324
du würdest als
Mr.Magic
2006-06-13, 21:29:28
Du kannst von den aktuellen Preisen für die Ageia-Karten nicht auf die Zukunft schließen. Bei höherer Verbreitung wird/würde auch so der Preis nach unten gehen, spätestens wenn die Researchkosten wieder eingefahren wurden. Und sollte Creative sich Ageia einverleiben wird der Kaufpreis entweder auf das einzelne Produkt umgelegt (SPU 150€ + PPU 250€ - gibt eine SPPU für 450€, nicht gerade etwas worauf man sich freuen sollte) oder das ganze Sortiment wird teurer.
Aber glücklicherweise ist das ja hypothetisch.
Hamster
2006-06-13, 21:47:56
Mr.Magic[/POST]']Du kannst von den aktuellen Preisen für die Ageia-Karten nicht auf die Zukunft schließen. Bei höherer Verbreitung wird/würde auch so der Preis nach unten gehen, spätestens wenn die Researchkosten wieder eingefahren wurden. Und sollte Creative sich Ageia einverleiben wird der Kaufpreis entweder auf das einzelne Produkt umgelegt (SPU 150€ + PPU 250€ - gibt eine SPPU für 450€, nicht gerade etwas worauf man sich freuen sollte) oder das ganze Sortiment wird teurer.
Aber glücklicherweise ist das ja hypothetisch.
wie gesagt alles hypothetisch, aber das glaube ich nicht.
soweit ich mitbekommen habe, stagniert der soundkarten umsatz, im gegenteil geht sogar zurück. viel mehr wird man, was neuerungen bei den soundlösungen angeht, in der zukunft auch nicht mehr als zu große sprünge erleben. zudem ist die halbwertszeit bei soundkarten sehr hoch. hinzu kommt die massive konkurrenz durch onboard soundlösungen.
demnach muß man neue anreize schaffen, neue karten zu kaufen. soundtechnisch bewegt man sich mittlerweile auf einem hohen niveau, da gibt es wenig steigerungsmöglichkeiten.
nach diesen überlegungen könnte es sich CL nicht leisten solche karten so massiv teuer zu machen.
ich bleibe dabei, eine soundkarte mit nem physikchip dürfte 30-50euro teurer sein als ohne. aber dies ist und bleibt eine vermutung und generell nur eine gewagte hypothese.
MGeee
2006-06-13, 22:01:17
Also Sound nutze ich schon seit 5 Jahren onBoard. Ich würde mir ja evtl. ne Soundkarte mit 5.1 oder 7.1 holen nur gibt es da ein echtes Problem mit der Aufstellung der einzelnen Boxen. Ich bin sehr froh, dass heute so ziemlich alles onBoard ist (FireWire, SATA-Raid, Sound, LAN, usw.). Da reicht es wenn man sich voll und ganz auf die Graka konzentriert (beim Kauf).
Wenn der Ageia-Chip "nur" 20 Watt verbraucht, wie hier geschrieben wurde, könnte man ihn evtl. auch gleich mit onBoard machen und an die Heatpipe anbinden, die man heute schon öfters auf diversen Mobos sieht.
Blutmaul
2006-06-13, 22:23:50
Naja, es gibt schon einen hörbaren Unterschied von Onboard zu Soundkarte.
Obwohl ich immer noch eine ISA-Soundkarte hätte, wenn es noch ISA-Slots gäbe.
Die Terratec Maestro 32/96 hat einfach eine geile Soundqualität. =)
Wahrscheinlich wäre es aber besser, wenn die PPU auch auf dem grossen/schnellen PCIe BUS säße?
Mr.Magic
2006-06-14, 02:21:48
Direkt auf dem Mainboard wäre die PPU natürlich am besten aufgehoben. Man könnte ja noch einen Sockel aufs Board pflanzen, wie das früher mal bei Coprozessoren der Fall war.
Blutmaul
2006-06-14, 02:24:06
Das ist diese AMD-CoPro-Sockel/Slot-Geschichte, oder?
Das dauert bestimmt noch einige Jahre...
Hamster[/POST]']mal ein anderer denkansatz:
soundkartenhersteller wie creative labs haben eine stark zurückgehenden absatzmarkt, da die onboard chips immer besser werden.
hier gäbe es die wunderbare möglichkeit einen physikbeschleuniger auf die soundkarte zu integrieren. so hätte man 2 gründe sich solch eine steckkarte zuzulegen. ich vermute auch, daß dies die karten nur unwesentlich teurer machen würde, ist doch der potentielle markt immer noch um einiges größer als der für die reinen physikbeschleuniger....
BINGO!!!!!!!!!!!!!
Demirug[/POST]']HavokFX ist wirklich nur für Effekt Physik gedacht. Allerdings entwickelt ATI ja unabhängig davon eine weitere API die auch Gamephysik unterstützt. Der Grund warum man dafür derzeit eine eigene Karte braucht ist die mangelnde Multitasking eigenschaft der GPUs. Das wird in Zukunft aber besser werden.
LOL!
Da muß ich dir wiedersprechen!
Alle AIBs streuben sich dagegen!
Die VGA würde teurer, wer übernimt das Risiko für einen weiteren ASIC ? Wetteberwer bleibt bei Havox und nv würde preislich ATI davonziehen!
Warum: Die VGAs würden teurer werden! ATI bleibt bei Crossfire, sprich 3 VGAs um auf 10% der Leistung einer PPU Steckkarte zu kommen!
Glaub nicht immer alles was dir Caiptain Hook ;) erzählt!
Gast[/POST]']LOL!
Da muß ich dir wiedersprechen!
Na wenn Demirug nicht weiss von was er redet... :rolleyes:
Gast[/POST]']
Alle AIBs streuben sich dagegen!
Die VGA würde teurer, wer übernimt das Risiko für einen weiteren ASIC ? Wetteberwer bleibt bei Havox und nv würde preislich ATI davonziehen!
Wieso sollten Vgas teurer werden? Wegen der API? Die (be)zahlen die Developer der Games die es nutzen...
ASIC? ehm? wo?
Gast[/POST]']
Warum: Die VGAs würden teurer werden! ATI bleibt bei Crossfire, sprich 3 VGAs um auf 10% der Leistung einer PPU Steckkarte zu kommen!
Ehm... 10%? Mit oder ohne Glaskugel? O_o
Gast[/POST]']
Glaub nicht immer alles was dir Caiptain Hook erzählt!
Captain Hook?
Demirug
2006-06-14, 11:12:08
Gast[/POST]']LOL!
Da muß ich dir wiedersprechen!
Alle AIBs streuben sich dagegen!
Die VGA würde teurer, wer übernimt das Risiko für einen weiteren ASIC ? Wetteberwer bleibt bei Havox und nv würde preislich ATI davonziehen!
Warum: Die VGAs würden teurer werden! ATI bleibt bei Crossfire, sprich 3 VGAs um auf 10% der Leistung einer PPU Steckkarte zu kommen!
Glaub nicht immer alles was dir Caiptain Hook ;) erzählt!
Ich weiß ja nicht wer Captain Hook ist aber ich fürchte hier gibt es ein Missverständnis. Ich habe nie von einem weiteren ASIC gesprochen, sondern lediglich davon das zukünftige GPUs (ein Chip) besseres Multitasking unterstützen werden. Für die AIBs ändert sich also gar nichts die bauen ihre Grafikkarte wie bisher auch. Das was ATI im Moment macht ist eine neue API für vorhanden GPUs. Wiederum keine Auswirkung für die AIBs. Außer das sie vielleicht mehr verkaufen.
Auf Havok FX hat das wiederum auch keine Auswirkungen weil Havok die Grafik-APIs nutzt. Entsprechend ist HavokFX auch nicht auf nVidia und ATI begrenzt.
Was die 10% angeht so wären es falls dieser Wert überhaupt stimmt (ich habe bisher kein SDK, oder die Demos von ATI bekommen) nicht 3 Karten sondern nur eine. Die anderen beiden rendern ja nur und können nicht durch eine PPU ersetzt werden.
Das allgemeine Problem ist das sich im Moment jeder noch sehr bedeckt gibt wenn es um Implementierungsdetails geht. Jeder hat Angst das die Ideen geklaut werden.
Demirug
2006-06-14, 11:14:21
Blutmaul[/POST]']Das ist diese AMD-CoPro-Sockel/Slot-Geschichte, oder?
Das dauert bestimmt noch einige Jahre...
Warum Jahre? Eigentlich hängt es wenn dann nur an ClearSpeed. Die Opterons sind nämlich schon immer dafür ausgelegt. Es gibt sogar schon einen FPGA Copro den man einfach in einen normalen CPU Sockel auf einem Multiprozessor board steckt.
Der K8 stammt ja schließlich vom Opteron ab, also sind alle K8er Dualslotfähig.
Natürlich ist der Opteron noch besser dafür ausgelegt.
BlackBirdSR
2006-06-14, 11:27:46
Gast[/POST]']Der K8 stammt ja schließlich vom Opteron ab, also sind alle K8er Dualslotfähig.
Natürlich ist der Opteron noch besser dafür ausgelegt.
Der Opteron ist der K8.
Es liegt nur an AMD wieviele cHT Links man physikalisch verbaut, bzw nach außen führt.
ilPatrino
2006-06-14, 11:29:11
Demirug[/POST]']Warum Jahre? Eigentlich hängt es wenn dann nur an ClearSpeed. Die Opterons sind nämlich schon immer dafür ausgelegt. Es gibt sogar schon einen FPGA Copro den man einfach in einen normalen CPU Sockel auf einem Multiprozessor board steckt.
braucht man dafür einen kohärenten link bzw. hätte der für einen derartigen copro vorteile?
bezüglich Physik auf Soundkarten:
Für eine wesentliche Steigerung der Soundqualität brauchts mittlerweile doch schon sowas wie eine Physiksimulation. Wenn die Reibung zwischen z.B. Metallobjekten berechnet wird kann man doch auch gleich das passende Geräusch dazu berechnen. Spontan würde ich bei Sound und Physik größere Gemeinsamkeiten vermuten als bei Grakas und Physik. Andererseits braucht man für wirklich überzeugenden Sound auch ein 3D-Modell der Szenerie, und das existiert ja schon auf der Graka, also gehört eigentlich alles auf eine Karte, um die gleichen Daten nicht in drei getrennten Speichern vorhalten zu müssen. Wie groß sind denn wirklich Unterschiede und Gemeinsamkeiten zwischen den drei Bereichen?
Gast[/POST]'] Spontan würde ich bei Sound und Physik größere Gemeinsamkeiten vermuten als bei Grakas und Physik. Andererseits braucht man für wirklich überzeugenden Sound auch ein 3D-Modell der Szenerie, und das existiert ja schon auf der Graka, also gehört eigentlich alles auf eine Karte, um die gleichen Daten nicht in drei getrennten Speichern vorhalten zu müssen.
Und da die CPU wohl immer noch maßgeblich für das Erzeugen der Geometrie verantwortlich ist, stecken wir diese gleich mit hinzu. ;)
Gast[/POST]']Und da die CPU wohl immer noch maßgeblich für das Erzeugen der Geometrie verantwortlich ist, stecken wir diese gleich mit hinzu. ;)Ich denke mal, Sound und Gameplayelemente laufen noch auf einem höheren Abstraktionslevel als die beiden anderen Bereiche, Sound ist aber eher etwas für spezialisiertere Hardware als damit noch die arme CPU zu quälen, die soll gefälligst für bessere KI sorgen.
Bokill
2006-06-14, 15:19:59
Demirug[/POST]']Warum Jahre? Eigentlich hängt es wenn dann nur an ClearSpeed. Die Opterons sind nämlich schon immer dafür ausgelegt. Es gibt sogar schon einen FPGA Copro den man einfach in einen normalen CPU Sockel auf einem Multiprozessor board steckt. Neee falsch, es sind sogar zwei FPGA Anbieter. ;)
Die eine Lösung basiert auf einen Altera FPGA, die andere Lösung basiert auf einen FPGA von Xilinx. Aber stimmt schon, wenn AMD es erlaubt, dann hängt die Schnelligkeit der Implementierung nur noch von den Systempartnern ab. Altera und vor allem Xilinx sind alte Kämpen im HyperTransport-Lager, die müssten das mit "Links" schaffen ihre FPGAs reif für den Opteronsockel zu machen.
Ach ja, ich vermute ganz stark, dass die Lizenznehmer den Kohärenten HyperTransport auf Multisockel verwenden müssen (deswegen ja auch in Lizenz). Schlisslich konkurrieren der Fremdchip und der Opteron um Speicherzugriffe.
MFG Bobo(2006)
Gundlehrgang der DV:
RISC - Reduced Instruction Set Computer
CISC - Complex Instruction Set Computer
RISC-Architekturen haben einen reduzierten Befehlssatz, der auf ganz bestimmte Aufgaben ausgerichtet ist. Bspw. eine GPU oder eine Vektor-CPU.
CISC-Architekturen verfügen über einen "komplexen" Befehlssatz (Mikrocmd´s), die generell "alles" können (eine Frage der Software).
RISC´s resultieren immer aus CISC´s, da hier Erfahrungen gesammelt werden zu einer Aufgabe, die zu einer bestimmten RISC-Architektur führt.
CISC´s können RISC´s simulieren, aber nicht umgekehrt.
Wie schon mehrfach geschrieben, RISC´s arbeiten schneller, weil sie nicht über "Umwege" gehen, sondern einen genau darauf abgestimmten Befehlssatz haben. Der CISC tut das auch, aber eben über eine bestimmte Software. Die Ingeneure sammeln Erfahrung Software- und Hardwareseitig und "verschelzen" diese zu einer RISC-Architektur.
Bspw. der Übergang von CPU zu GPU (CISC --> RISC).
All diese Infos sind im Stahlkecht oder Hansen zu lesen (für die Informatiker unter Euch). Aber auch das ganze I-Net ist voll davon.
deekey777
2006-06-15, 11:12:57
Demirug[/POST]']HavokFX ist wirklich nur für Effekt Physik gedacht. Allerdings entwickelt ATI ja unabhängig davon eine weitere API die auch Gamephysik unterstützt. Der Grund warum man dafür derzeit eine eigene Karte braucht ist die mangelnde Multitasking eigenschaft der GPUs. Das wird in Zukunft aber besser werden.
ATi präsentiert „CrossFire Physics“ (Update) (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/)
Update: Wie ATi uns auf Anfrage soeben mitteilte, ist es mit CrossFire Physics technisch durchaus möglich, die Spielphysik auf einer Grafikkarte zu berechnen. Jedoch würde eine GPU bei der Spielphysik die CPU nur um etwa 10 bis 15 Prozent entlasten, weswegen sich die Kanadier auf die Effektphysik fokussieren werden.
Oder ist im Update nur eine Single-Konfiguration (sprich nur ein Grafikkarte im System) gemeint?
Vielleicht wird gerade deshalb Ageia eine Zukunft haben, weil HavokFX nur Effektphysik beschleunigt? Ageia beschleunigt beides.
Nur ob Ageia bei der Gameplayphysik wirklich effizient arbeiten kann bleibt abzuwarten. Bin da skeptisch?
Gast[/POST]']Gundlehrgang der DV:
RISC - Reduced Instruction Set Computer
CISC - Complex Instruction Set Computer
RISC-Architekturen haben einen reduzierten Befehlssatz, der auf ganz bestimmte Aufgaben ausgerichtet ist. Bspw. eine GPU oder eine Vektor-CPU.
CISC-Architekturen verfügen über einen "komplexen" Befehlssatz (Mikrocmd´s), die generell "alles" können (eine Frage der Software).
RISC´s resultieren immer aus CISC´s, da hier Erfahrungen gesammelt werden zu einer Aufgabe, die zu einer bestimmten RISC-Architektur führt.
CISC´s können RISC´s simulieren, aber nicht umgekehrt.
Wie schon mehrfach geschrieben, RISC´s arbeiten schneller, weil sie nicht über "Umwege" gehen, sondern einen genau darauf abgestimmten Befehlssatz haben. Der CISC tut das auch, aber eben über eine bestimmte Software. Die Ingeneure sammeln Erfahrung Software- und Hardwareseitig und "verschelzen" diese zu einer RISC-Architektur.
Bspw. der Übergang von CPU zu GPU (CISC --> RISC).
All diese Infos sind im Stahlkecht oder Hansen zu lesen (für die Informatiker unter Euch). Aber auch das ganze I-Net ist voll davon.
Der Übergang von CPU zu GPU ist passiert. Dieser Entwurf ist aber nicht festgeschrieben. Die Graka-Hersteller "optimieren" immer noch. Aber an der grundsätzlichen Funktionsweise (durch die Aufgabe bedingt) ändert sich nichts.
StefanV
2006-06-16, 15:57:40
Gast[/POST]']Gundlehrgang der DV:
RISC - Reduced Instruction Set Computer
CISC - Complex Instruction Set Computer
RISC-Architekturen haben einen reduzierten Befehlssatz, der auf ganz bestimmte Aufgaben ausgerichtet ist. Bspw. eine GPU oder eine Vektor-CPU.
CISC-Architekturen verfügen über einen "komplexen" Befehlssatz (Mikrocmd´s), die generell "alles" können (eine Frage der Software).
RISC´s resultieren immer aus CISC´s, da hier Erfahrungen gesammelt werden zu einer Aufgabe, die zu einer bestimmten RISC-Architektur führt.
CISC´s können RISC´s simulieren, aber nicht umgekehrt.
Wie schon mehrfach geschrieben, RISC´s arbeiten schneller, weil sie nicht über "Umwege" gehen, sondern einen genau darauf abgestimmten Befehlssatz haben. Der CISC tut das auch, aber eben über eine bestimmte Software. Die Ingeneure sammeln Erfahrung Software- und Hardwareseitig und "verschelzen" diese zu einer RISC-Architektur.
Bspw. der Übergang von CPU zu GPU (CISC --> RISC).
All diese Infos sind im Stahlkecht oder Hansen zu lesen (für die Informatiker unter Euch). Aber auch das ganze I-Net ist voll davon.
Problem dabei:
Das ganze ist vollkommen überholt.
Man kann heut kaum noch sagen XY ist RISC und ZX ist CISC, das war früher vielleicht so.
Auch hab ich so ein kleines Problem, eine GPU als RISC CPU darzustellen :| :|
wie siehts eigentlich mit onboard-physik aus? das wäre doch sicherlich auch möglich, auch wenn es nicht an die leistung einer "eigentsändigen" physikkarte rankoomt, könnte es den pozessor ja zumindest ein bisschen entlasten, 5-10% wären da doch sicherlich denkbar(und das wäre ja schon ziemlich viel), auch wenn es nur ein etwas simpler strukturierter onboard-physik chip ist
wäre das möglich??
DV-Wissen:
Die Welt spaltet sich in RISC und CISC. Es gibt nichts anderes!
Über diese Diskussion der Unterscheidung habe ich diverse Male Rede und Antwort gestanden.
Eine GPU ist eine Architektur mit reduziertem Befehlssatz, der auf eine ganz bestimmte Aufgabe zugeschnitten ist (Rastern/Rendern).
Aus Sicht der DV handelt es sich dabei um eine RISC-Archi. Eine PPU ist auch nichts anderes.
Bokill
2006-06-16, 18:57:54
Gast[/POST]']DV-Wissen:
Die Welt spaltet sich in RISC und CISC. Es gibt nichts anderes!
Und was ist EPIC, oder was für eine ISA nutzt ein DSP ... ? Ich denke Chips können durchaus noch anders "ticken".
Abgesehen davon ist die Diskussion um RISC-CISC obsolet, beide Lager haben sich in den Mikroarchitekturen gegenseitig viel abgeschaut, dass x86 beide Felder umfasst. Die ISA ist im CISC-Style, die Umsetzung in Hardware seit dem AMD K5 und dem Intel PentiumPro immer mehr RISC.
Über diese Diskussion der Unterscheidung habe ich diverse Male Rede und Antwort gestanden. Überflüssiger Satz bei Gästen. Kein 3DC Member hat die Möglichkeit deinen Gast-Status abzuklären.
Verweise daher bitte verifizierbar auf Beiträge per Link, aber unterlasse ohne weitere Quellenbelege auf schon anscheinend/scheinbar Geschriebenes von deiner Seite ...
... das kann eben keiner nachprüfen, ob nur zum besseren Schein so was gesagt wird, oder ob tatsächlich Vieles von dir geschrieben wurde.
MFG Bobo(2006)
"Und was ist EPIC, oder was für eine ISA nutzt ein DSP ... ? Ich denke Chips können durchaus noch anders "ticken"."
ISA:
Sowohl alle RISC´s als auch CISC´s sind ISA´s.
DSP:
Ein DSP kann aus Sicht der technischen Informatik ein CISC oder ein RISC sein, kommt darauf an, wie groß und komplex sein Mikrobefehlssatz ist und was dieser später tun soll. DSP´s sind meistens RISC, weil sie nur ganz bestimmte Aufgaben erledigen.
EPIC, VLIW:
Erst einmal sollten wir hier beim Thema bleiben. Es geht lediglich um die Quantität/Qualität der Befehle, die eine Architektur beinhaltet und nicht um eine Funktionsweise, die z. B. der Itanium nutzt im Falle von EPIC. Dein Vergleich ist also in der Form schlicht falsch. EPIC wird manchmal als eigenständig angesehen, also nicht RISC oder CISC. Dies ist aber nicht richtig, weil EPIC eine Funktionsweise beschreibt genau wie VLIW.
Am Rande nur: EPIC und VLIW sind sehr ähnlich.
Es ist tatsächlich so, daß sowohl ein RISC als auch CISC nach dem VLIW- bzw. EPIC-Verfahren funktionieren kann, aber nicht muss.
Der RISC macht es dann halt in Hardware und der CISC über Software oder Mikrobefehle. Wie auch immer.
Heute werden verschiedene "Tricks" verwendet, die komplexe Befehle auf eine RISC-artige Architektur umsetzten, aber das ändert nichts an der Tatsache, daß die CPU in die CISC-Gruppe einzusortieren ist. Die CPU verfügt in diesem Fall harwaremäßig über alles, was sie benötigt um komplexe Befehle auszuführen und darauf kommt es an. Ein typisches Merkmal von CISC´s sind aufwendige Speicher-/Ladebefehle, die auch der Itanium hat. Dieser ist als CISC anzusehen der nach EPIC funktioniert.
"Überflüssiger Satz bei Gästen. Kein 3DC Member hat die Möglichkeit deinen Gast-Status abzuklären.
Verweise daher bitte verifizierbar auf Beiträge per Link, aber unterlasse ohne weitere Quellenbelege auf schon anscheinend/scheinbar Geschriebenes von deiner Seite ...
... das kann eben keiner nachprüfen, ob nur zum besseren Schein so was gesagt wird, oder ob tatsächlich Vieles von dir geschrieben wurde."
Es gibt auch mündliche Beiträge, die man vor seinen Schülern hält bzw. gehalten hat. Kann also demnach nicht auf verifizierbare (schriftliche) Beiträge verweisen. Sorry!
StefanV
2006-06-16, 21:26:00
Gast[/POST]']DV-Wissen:
Die Welt spaltet sich in RISC und CISC. Es gibt nichts anderes!
In welchem Jahrhundert leben wir eigentlich?!
Sorry, aber diese Unterscheidung ist zu dem Zeitpunkt, an dem ich dieses Posting schreibe ziemlicher Mist, man kann aktuelle RISC und CISC Architekturen kaum noch unterscheiden, bei beiden findet man Merkmale des anderen, weswegen wir das ganze a bisserl begraben sollten...
Bokill
2006-06-16, 21:26:02
Gast[/POST]']"ISA:
Sowohl alle RISC´s als auch CISC´s sind ISA´s.
ISA = Instruction Set Architecture
Das ist ein Oberbegriff, wie Befehle organisiert sind. RISC und CISC sind keine ISA. Die ISA ist eine Beschreibung von Befehlen, die einer CPU Familie zugeordnet ist. Bei PowerPC ist dies naturgemäss eine andere ISA, als bei den SPARCs, oder der x86 Klasse.
DSP:
Ein DSP kann aus Sicht der technischen Informatik ein CISC oder ein RISC sein, kommt darauf an, wie groß und komplex sein Mikrobefehlssatz ist und was dieser später tun soll. DSP´s sind meistens RISC, weil sie nur ganz bestimmte Aufgaben erledigen. Allerdings ist ein DSP auch anders in seinem Funktionsaufbau, das ist mithin auch entscheidend. In so fern wird schon noch gerne unterschieden in RISC, CISC, VLIW, EPIC/PIC.
EPIC, VLIW:
Erst einmal sollten wir hier beim Thema bleiben. Es geht lediglich um die Quantität/Qualität der Befehle, d ... Schau dir mal das Topic an: "Warum Spielephysikberechung auf Grakas und Ageia? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4444853#post4444853)"
...
MFG Bobo(2006)
Selbstverständlich sind RISC und CISC ISA´s. Beide verfügen über einen Instruktionssatz. Bei dem einen in Hardware bei dem anderen mit Mikrobefehlen mit entsprechenden Mnemonics, die über Software angesprochen werden. Wie auch immer...
Die Unterscheidung ob RISC oder CISC spielt im Unterricht nach wie vor eine wesentliche Rolle und hat sich bei mir immer als hilfreich erwiesen.
Wenn es für Euch keine Rolle spielt, dann ist das Eure Sache.
Wir sind doch etwas OT (nicht nur ich :)). Wünsche noch viel Spaß bei der Diskussion.
StefanV
2006-06-16, 22:09:40
Gast[/POST]']
Die Unterscheidung ob RISC oder CISC spielt im Unterricht nach wie vor eine wesentliche Rolle und hat sich bei mir immer als hilfreich erwiesen.
Wenn es für Euch keine Rolle spielt, dann ist das Eure Sache.
Und weils im Unterricht (immer noch) eine wichtige Rolle spielt, muss das auch in der Praxis so sein?!
Aha :|
Sorry, aber zu sagen XYZ ist RISC und ZX ist CISC ist einfach nicht mehr so ohne weiteres möglich, die beiden Ansätze haben sich zu stark vermischt, als dass man sie jetzt noch trennen könnte, so gibts einige Architekturen, bei denen einige Befehle 'emuliert' werden, intern (z.B. durch andere Befehle)...
Intern gibts auch kaum noch unterschiede, vom Aufbau her, nativ sind beide Ansätze nicht mehr und müssen decodiert werden.
RISC vs CISC war vor 20 Jahren vielleicht interessant, heutzutage ists ziemlicher Blödsinn, zu unterscheiden...
Gast[/POST]']ISA´s
Nicht ISA's und schon gar nicht ISA´s. ISAs.
Zum Rest: Überholter Bullshit. Der Übergang ist völlig fließend, der interne Chipaufbau nach dem Decoder sowieso in sehr weiten Teilen der gleiche. Zwischen RISC und CISC unterscheiden noch die ewig gestrigen oder die die sich unbedingt über Banalitäten streiten wollen.
@Coda
Komischerweise unterscheiden diejenigen, die eine Architektur zusammenschustern noch heute nach RISC und CISC. Aber warum nur? Denk mal darüber nach....
StefanV
2006-06-18, 22:35:30
Gast[/POST]']@Coda
Aber warum nur?
Weil dies in der Schule gelernt haben?! :rolleyes:
Bei aktuellen CPUs könnt man 'notfalls' auch das Frontend entsorgen und ändern und schon verstehen sie 'nen anderen Befehlssatz (wobei der 'andere Befehlssatz' dann sicherlich nicht unbedingt besonders gut laufen würde, es würde aber gehen, theoretisch, ebenso könnt man eine CPU basteln, die mehrere könnt).
Manch andere emulieren das ganz per Software, Crusoe lässt grüßen...
Habe nie bestritten, daß beide Designs in heutigen CPU´s gemischt keinen Einzug gehalten haben. Nur es sind vom Ansatz her zwei ganz unterschiedliche Designs, die einfach unterschieden werden müssen.
Diejenigen, die Prozessoren bauen, wissen was diese zwei Ansätze sind, wo ihre Vor-/Nachteile sind, wie sie diese in eine Architektur einzubringen haben um die maximale Performance rauszuholen. Gängige Praxis!
Schon allein aus diesem Grunde müssen technische Informatiker darüber bescheid wissen. Selbstverständlich darf dieses Wissen nie verloren gehen.
Für den "Normalsterblichen" ist es nicht erforderlich, da gebe ich euch Recht.
Ein P4 z. B. beinhaltet beides, aber ist nach Außen ein CISC, weil er eben einen komplexen Befehlssatz hat. Diesen erreicht er durch einen geschickten Mix aus RISC/CISC. Nur Intel kennt das Geheimnis. Wenn ich diese CPU mit Assembler programmiere, arbeite ich mit einem Haufen an Mnemonics. Spätestens hier erkenne ich, daß ich es mit einem CISC zutun habe. Die Befehlsauswahl bei z. B. einer GPU hingegen fällt deutlich einfacher und kleiner aus.
Eine GPU kann niemals einen z. B. A64 softwaremäßig emulieren, weil die GPU einen so bescheidenen Befehlsumfang hat, daß es einfach physikalisch nicht geht (auch vom Registeraufbau). Eben hier ist der Unterschied zwischen CISC und RISC und deshalb MUSS man unterscheiden. Aber für Euch ist es wohl nicht erforderlich. Deshalb sollten wir diese Diskussion begraben.
Noch eines: Die Architektur des Itanium gab es auch erst als Software, die auf einem CISC-System ausgeführt wurde (so gesehen eine ISA nur in Software:)). Man konnte sozusagen schon Software entwickeln bevor es den ersten Itanium in Silizium gab. Die Emu-Software hat dann die Mnemonics des Itanium entsprechend der darunterliegenden CISC-Architektur übersetzt. Einfach nur eine Umsetzung, mehr nicht und im Zeitlupentempo.
Bokill
2006-06-18, 23:45:30
Gast[/POST]']Habe nie bestritten, daß beide Designs in heutigen CPU´s gemischt keinen Einzug gehalten haben. Nur es sind vom Ansatz her zwei ganz unterschiedliche Designs, die einfach unterschieden werden müssen.
Diejenigen, die Prozessoren bauen, wissen was diese zwei Ansätze sind, wo ihre Vor-/Nachteile sind, wie sie diese in eine Architektur einzubringen haben um die maximale Performance rauszuholen. Gängige Praxis!
Schon allein aus diesem Grunde müssen technische Informatiker darüber bescheid wissen. Selbstverständlich darf dieses Wissen nie verloren gehen. OK, angenommen, und erklärlich.
Für den "Normalsterblichen" ist es nicht erforderlich, da gebe ich euch Recht. ?!?
Ein P4 z. B. beinhaltet beides, aber ist nach Außen ein CISC, weil er eben einen komplexen Befehlssatz hat. Diesen erreicht er durch einen geschickten Mix aus RISC/CISC. Nur Intel kennt das Geheimnis. Wenn ich diese CPU mit Assembler programmiere, arbeite ich mit einem Haufen an Mnemonics. Spätestens hier erkenne ich, daß ich es mit einem CISC zutun habe. Die Befehlsauswahl bei z. B. einer GPU hingegen fällt deutlich einfacher und kleiner aus.
Eine GPU kann niemals einen z. B. A64 softwaremäßig emulieren, weil die GPU einen so bescheidenen Befehlsumfang hat, daß es einfach physikalisch nicht geht (auch vom Registeraufbau). Eben hier ist der Unterschied zwischen CISC und RISC und deshalb MUSS man unterscheiden. Bis hierher ist dein Beitrag gut und erklärend ...
Aber für Euch ist es wohl nicht erforderlich. Deshalb sollten wir diese Diskussion begraben. Ich gebe dir einen Tip, beschäftige dich mit den Forum eingehend, bis du verstehst wie das Forum "Tickt" (Normalsterbliche, Euch).
Das ist komplexer, als deine Vermutung es derzeit zulässt. Es ist erforderlich. Nur hier, wie auch in anderen ähnlich gestrickten Foren stecken schon genügend eindeutige Hardcorediskussionen über RISC-CISC drin ... der Gaul ist totgeritten.
Wir sollten uns lieber der Diskussion GPU und CPU zuwenden, und weniger uns in Grundsatzdiskussionen zu CISC und RISC ergehen, das bedeutet nur wieder erneut einen totgerittenen Gaul nochmals zum Tanz aufzufordern.
Und nochmal, lese dich bitte in den diskursiven Kreis 3DCenter tiefer ein. Wenn du allerdings meinst, das Forum will sich nur in einer bestimmten Diskussionstiefe bewegen, warum postest du dann? Wie gesagt, Grundsatzdiskussionen RISC-CISC sind bis zum Überdruss auch hier schon gemacht worden.
StefanV
2006-06-19, 01:04:10
Gast[/POST]']
Diejenigen, die Prozessoren bauen, wissen was diese zwei Ansätze sind, wo ihre Vor-/Nachteile sind,
Falsch, WAREN.
Gast[/POST]']
Schon allein aus diesem Grunde müssen technische Informatiker darüber bescheid wissen.
Müssen sie das wirklich oder ist das einfach nur verallteter Mist, der früher mal wichtig war, heute aber keine Rolle spielt?! :|
Gast[/POST]']
Selbstverständlich darf dieses Wissen nie verloren gehen.
Warum sollte man überholtes Wissen, das eigentlich keine Rolle mehr spielt und eigentlich völlig irrelevant ist, nicht einfach mal begraben?! :|
Zum beispiel was ein MCA ist, wie der aufgebaut ist oder was ein EISA Bus ist, wofür man ECU die ECU Disk braucht?!
Gast[/POST]']
Für den "Normalsterblichen" ist es nicht erforderlich, da gebe ich euch Recht.
Dieses Zeugs interessiert doch eh nur noch ein paar Lehrer und das auch nur weil irgendwer meinte, das das aufm Lehrplan stehen muss, was damals, als jener gemacht wurde, auch nicht ganz verkehrt war, heut schauts aber ganz anders aus...
Gast[/POST]']
Ein P4 z. B. beinhaltet beides, aber ist nach Außen ein CISC, weil er eben einen komplexen Befehlssatz hat.
Haben das andere nicht auch?! :|
Außerdem denke ich, dass du das Pferd falsch aufsattelst und hier einfach nur überholten Quatsch schreibst.
Denn AFAIK unterscheiden sich RISC und CISC auf ganz andere weise und nicht weil XYZ einen komplexeren Befehlssatz hat...
Gast[/POST]']
Diesen erreicht er durch einen geschickten Mix aus RISC/CISC.
...was heutzutage eigentlich alle CPUs sind, warum sollt man da noch unterscheiden, zumals eh kaum noch 'nen Unterschied macht?
Gast[/POST]']DV-Wissen:
Die Welt spaltet sich in RISC und CISC. Es gibt nichts anderes!
Über diese Diskussion der Unterscheidung habe ich diverse Male Rede und Antwort gestanden.
Eine GPU ist eine Architektur mit reduziertem Befehlssatz, der auf eine ganz bestimmte Aufgabe zugeschnitten ist (Rastern/Rendern).
Aus Sicht der DV handelt es sich dabei um eine RISC-Archi. Eine PPU ist auch nichts anderes.
Der Befehlssatz vergrößert sich jede Generation rapide. Da von einem reinen RISC Befehlssatz zu sprechen finde ich etwas daneben. Zumal die Hersteller auchnoch verschiedene Befehlssätze haben, und nur sie die kompletten Befehlssätze kennen. Ich würde sogar eher sagen, dass eine R(V)5xx GPU ein ziemlicher CISC Chip ist, da ATI sich den Befehlssatz so auslegen wird, dass sie die grösstmögliche Leistung damit hinbekommen. Aber was es jetzt genau ist, weiss natürlich nur ATI, wir können da nur spekulieren.
Coda[/POST]']Nicht ISA's und schon gar nicht ISA´s. ISAs.
Zum Rest: Überholter Bullshit. Der Übergang ist völlig fließend, der interne Chipaufbau nach dem Decoder sowieso in sehr weiten Teilen der gleiche. Zwischen RISC und CISC unterscheiden noch die ewig gestrigen oder die die sich unbedingt über Banalitäten streiten wollen.
Im Prinzip hast du recht. Dennoch dient die Information ob es sich hierbei mehr oder weniger um einen RISC Chip handelt zur eigenen Einschätzung des Chips bei :D
Bei Hauptprozessoren ist diese Einteilung natürlich kompletter Blödsinn, da jeder weiss, dass es sich hier fast immer um ein RISC Artiges Design handelt, selbst wenn der Befehlssatz CISC ist.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.