Archiv verlassen und diese Seite im Standarddesign anzeigen : Sind wir am Ende der Ghz angekommen?
Moin,
ich hab grad bei Golem den Bericht über die neue Hardware von Intel gelesen.
Alles klingt schön und gut. Neue Features, mehr Bandbreite aber die CPU hat (in gewissen Masse) nur eine SchönheitsOP beim Cache bekommen (was ja auch sehr sinnvoll ist).
Ich meine ich kann mich erinnern, dass man sagte. "bei 4ghz ist schluss". Zumindest mit einem Core.
Dann liest man ja weiter unten, dass Intel nun auf 2 Core Design aufbaut. 2 Core stell ich mir jetzt mal so vor wie HT. Und somit hätten doch viele Dinge gar kein Vorteil dadurch oder? Weil nicht alles lässt sich "parallel in zwei Linien" berrechnen.
Mal sehn was ihr Jungs dazu sagt.
Ach ja, warum schafft es NVIDIA oder ATI ihre GPU´s so krass zu bauen, mit Millionen von Transistoren (und angeblich viel schneller als ein INTEL P4) aber Intel selber nicht? Die Technik ist doch sicherlich die gleiche (1 und 0 :) )
Dann liest man ja weiter unten, dass Intel nun auf 2 Core Design aufbaut. 2 Core stell ich mir jetzt mal so vor wie HT. Und somit hätten doch viele Dinge gar kein Vorteil dadurch oder? Weil nicht alles lässt sich "parallel in zwei Linien" berrechnen.
Wenn die Programmierer sich daran gewöhnt haben kann eigentlich jedes Spiel davon profitieren.
Ach ja, warum schafft es NVIDIA oder ATI ihre GPU´s so krass zu bauen, mit Millionen von Transistoren (und angeblich viel schneller als ein INTEL P4) aber Intel selber nicht? Die Technik ist doch sicherlich die gleiche (1 und 0 )
Nein. Es gibt einen entscheidenden Unterschied. Die CPU ist dazu gebaut alles zu können, die Grafikkarte hat nur bestimmte Anwendungsgebiete und dort wird alles massiv parallel gerechnet.
Moderne Grafikkarte bestehen z.B. aus 6 gleichen Vertexprozessoren und 16 gleichen Pixelprozessoren.
Im Prinzip auch nichts anderes als mehrere Cores ;)
Und überhaupt ein Athlon 64 hat auch 110 Mio Transistoren ;)
Original geschrieben von Coda
Und überhaupt ein Athlon 64 hat auch 110 Mio Transistoren ;)
... und besteht zu wieviel Prozent aus Cache? ;)
Hier liegt ein weiterer fundamentaler Unterschied zwischen GPUs und CPUs.
sry,
;(
Mehr als die Hälfte, ich weiß. Aber die Grafikkarten haben auch ziemlich viele Bufferspeicher.
Original geschrieben von Coda
Mehr als die Hälfte, ich weiß. Aber die Grafikkarten haben auch ziemlich viele Bufferspeicher.
Mehr als 5% aller Transistoren??
SuperHoschi
2004-06-21, 16:11:06
Wenn ich eines gelernt habe im Leben, dann das es immer weiter geht.
So lange bis die Preis-Schmerzgrenze erreicht ist.
Vorher wird nicht aufgehört.
lg
SuperHoschi
Tesseract
2004-06-21, 16:42:11
Original geschrieben von Gast
Die Technik ist doch sicherlich die gleiche (1 und 0 :) )
auch wenn beide binär arbeiten, der unterschied in der arbeitsweise ist wie himmel und hölle
einerseits ist eine GPU so paralell arbeitend, dass ohne weiteres ein vielfaches der CPU leistung erreicht wird
andererseits ist eine GPU, verglichen mit den CPUs, für sehr viele andere arbeiten einfach "zu dumm"
robbitop
2004-06-21, 17:43:11
Bei VPUs hat man rund 25% Cache/FIFO/Register
Um Anwendungen und Spiele für mehrere CPUs gangbar zu machen, sollten sog. "Fibres" eine gute Lösung sein.
Ungut ist es wenn man Spiele mit mehr Threads als zur Verfügung stehenden CPU Kernen programmiert.
VPUs sind spezielle Prozessoren und haben einen enormen Anteil an Redundanz. 6 gleiche Vertexshader, 16 Quad Pipelines usw. Im Prinzip braucht man vieles nur einmal zu designen und dupliziert das dann.
Bei CPUs gibt es kaum interne Redundanz.
BlackBirdSR
2004-06-21, 17:47:21
Original geschrieben von robbitop
Bei VPUs hat man rund 25% Cache/FIFO/Register
Um Anwendungen und Spiele für mehrere CPUs gangbar zu machen, sollten sog. "Fibres" eine gute Lösung sein.
Ungut ist es wenn man Spiele mit mehr Threads als zur Verfügung stehenden CPU Kernen programmiert.
VPUs sind spezielle Prozessoren und haben einen enormen Anteil an Redundanz. 6 gleiche Vertexshader, 16 Quad Pipelines usw. Im Prinzip braucht man vieles nur einmal zu designen und dupliziert das dann.
Bei CPUs gibt es kaum interne Redundanz.
pass ein bischen mit Redundanz auf.
Das nutzt man eher, wenn man von zusätzlichen Cachezellen für Erhöhen der Yields spricht.
Bei 6VertexShader will man diese ja auch nutzen, und baut nicht 3 ein, nur für den Fall dass den Anderen was fehlt.
Tesseract
2004-06-21, 18:49:50
Original geschrieben von BlackBirdSR
pass ein bischen mit Redundanz auf.
yep, redundanz ist das falsche wort
redundante verarbeitung ist mehrfache/unnötige/etc. verarbeitung
zB hat ein TBR-chip weit weniger redundanz als brute force - und das macht ihn schnell - nicht weil er mehr verarbeiten kann
wenn man zB etwas codiert kann redundanz auch die zusätzliche information sein, die dabei hilft fehler zu erkennen und korrigieren
edit:
hier die "offizielle" definition: "Redundanz ist der Informationsgehalt einer Nachricht, der überschüssig ist, weil er implizit oder explizit schon vorher in der Nachricht gegeben wurde."
CrazyIvan
2004-06-21, 20:14:18
Original geschrieben von robbitop
Um Anwendungen und Spiele für mehrere CPUs gangbar zu machen, sollten sog. "Fibres" eine gute Lösung sein.
Ungut ist es wenn man Spiele mit mehr Threads als zur Verfügung stehenden CPU Kernen programmiert.
Kann mich zwar erinnern, dass Zecki diese "fibres" mal erwähnt hatte, weiß aber immer noch net, was das nu genau ist. Kann das vielleicht mal jemand erklären?
robbitop
2004-06-22, 12:59:05
ich bin mir der unpassenden Wortwahl durchaus bewusst, mir fiel nur kein besseres Wort ein.
@Tesseract
viel zu speziell
Redundanz ist das unnötige Vorhandensein von weglassbaren elementen.
aber auch: Überfluss, Üppigkeit ect (und das hier könnte fast passen)
Quelle: Weltbild Duden
GloomY
2004-06-22, 13:37:49
Original geschrieben von Coda
Wenn die Programmierer sich daran gewöhnt haben kann eigentlich jedes Spiel davon profitieren.Jedes Spiel vielleicht, aber nicht jede Anwendung. Es gibt einfach Probleme, die man nicht (bzw. sehr schlecht) parallelisieren kann. Wie das bei Spielen aussieht, weiss ich nicht genau, aber eine CPU wird eben immernoch allgemein entworfen, also für alle Arten von Anwendungen.
Ansonsten: Ack zum Rest deines Postings.
Original geschrieben von robbitop
Ungut ist es wenn man Spiele mit mehr Threads als zur Verfügung stehenden CPU Kernen programmiert.In wie fern soll das ein Problem darstellen? Wozu gibt's den OS Scheduler, der sich darum kümmert, welcher Thread wann die CPU benutzen darf?
Original geschrieben von robbitop
VPUs sind spezielle Prozessoren und haben einen enormen Anteil an Redundanz. 6 gleiche Vertexshader, 16 Quad Pipelines usw. Im Prinzip braucht man vieles nur einmal zu designen und dupliziert das dann.
Bei CPUs gibt es kaum interne Redundanz. Hmm, drei gleiche ALUs, drei gleiche AGUs beim Athlon (64) / Opteron ist nichts Gleiches?
Nochmal zum Anfangspost: Bei 4 GHz ist sicherlich nicht Schluß. Solange Moores Gesetz noch Bestand hat (und das wird mindestens noch 10 Jahre dauern, trotz aller Probleme), wird die Verkleinerung der Strukturgröße andauern und damit auch die Schaltgeschwindigkeit zunehmen. Außerdem kann man schaltungstechnisch immer noch etwas verändern, wenn die Herstellungstechnik keinerlei Raum mehr für Taktveränderungen bietet.
Schroeder
2004-06-22, 13:47:16
Original geschrieben von CrazyIvan
Kann mich zwar erinnern, dass Zecki diese "fibres" mal erwähnt hatte, weiß aber immer noch net, was das nu genau ist. Kann das vielleicht mal jemand erklären?
Wenn ich mich recht entsinne, sind Fibres eine Aktivitätsform ähnlich den sogenannten Co-Routinen. Ich hab damals leider nicht so genau zugehört in meiner Betriebssystem-Vorlesung, wenn ich mich aber recht entsinne, bieten Co-Routinen eine bessere "Ablaufsteuerung" als Threads, da sie einander mehr bedingen. Sprich, eine muss erst einen bestimmten Punkt erreichen, bis sie die Aktivität an eine andere wieder abgibt.
CrazyIvan
2004-06-22, 14:53:14
@ Schroeder
Von Co-Routinen hab ich auch schonmal was gehört (ebenfalls in ner BS Vorlesung). Sind die net 'n bissl veraltet? AFAIK hat man die doch bei Windows 3.x verwendet. Und Abhängigkeiten sollten ja hinsichtlich der angestrebten Parallelisierung bei mehreren Cores eher hinderlich sein.
BTW
Bin der Meinung, dass sich Spiele sicherlich net sooo doll parallelisieren lassen. Schließlich sind gerade solche Programme immer auf Nutzereingaben angewiesen und berechnen dann KI, Physik etc. in Abhängigkeit dieser. Und Abhängigkeit in jeder Form ist das "Buuh" Wort hinsichtlich jeglicher Parallelisierung. Wieviel hat eigentlich die SMP Optimierung bei Q3A gebracht?
robbitop
2004-06-22, 15:40:06
Original geschrieben von GloomY
Hmm, drei gleiche ALUs, drei gleiche AGUs beim Athlon (64) / Opteron ist nichts Gleiches?
Sagte ich dass es in der CPU kein mehrfaches Auftreten von Ausführungseinheiten gibt? Es ist da, aber weniger.
SIMD ist einfach grundlegend anders als es bei einer VPU der Fall ist
Original geschrieben von GloomY
In wie fern soll das ein Problem darstellen? Wozu gibt's den OS Scheduler, der sich darum kümmert, welcher Thread wann die CPU benutzen darf?
Laut Demirug soll es dann zu Stalls führen
ShadowLeet
2004-06-22, 16:03:19
http://www.tecchannel.de/news/hardware/13016/
Das hört sich meiner Meinung nach schon nach etwas mehr als 4gHz an ;) auch wenn mehr/kleinere Transistoren ja nicht automatisch einen höheren Takt bedeuten.
Schroeder
2004-06-22, 17:29:16
Original geschrieben von CrazyIvan
@ Schroeder
Von Co-Routinen hab ich auch schonmal was gehört (ebenfalls in ner BS Vorlesung). Sind die net 'n bissl veraltet? AFAIK hat man die doch bei Windows 3.x verwendet. Und Abhängigkeiten sollten ja hinsichtlich der angestrebten Parallelisierung bei mehreren Cores eher hinderlich sein.
BTW
Bin der Meinung, dass sich Spiele sicherlich net sooo doll parallelisieren lassen. Schließlich sind gerade solche Programme immer auf Nutzereingaben angewiesen und berechnen dann KI, Physik etc. in Abhängigkeit dieser. Und Abhängigkeit in jeder Form ist das "Buuh" Wort hinsichtlich jeglicher Parallelisierung. Wieviel hat eigentlich die SMP Optimierung bei Q3A gebracht?
Ich muss da nochmal in meine Mitschriften schauen...
Nunja, was Spiele & parallelisieren angeht, wenn du in bspw. nem Ego-Shooter ne Kiste umstößt kann der eine CPU bspw. die Physik und eine andere CPu etwas vom Sound (je nach Soundkarte) berechnen. Oder KI, jede CPU berechnet einen NPC. Gut ich gebe zu das letzte war etwas unrealistisch.
Eisbär
2004-07-03, 19:21:17
Zum Thema Redundanz:
Redundanz ist auch nicht umbedingt unnötig. Über Redundanz lassen sich auch fehlerreduzierte Systeme erstellen. Daher werden redundante Systeme oftmals durch verschiedene Einheiten aufgebaut, die die gleiche Funktion haben. Ein Beispiel sind hier die Suchsysteme von Lenkraketen. Sie funktionieren z.B. über GPS und Bilderkennung der Erdoberfläche. Um eine definitive Entscheidung fällen zu können braucht man min. drei solcher von einander unabhängigen Systeme.Bei abweichenden Ergebnissen gewinnt die Mehrheit. (Wie kann man da noch daneben zielen???)
Und Synchronisationspunkte, so klingt das bei Euren Fibres, sind nicht umbedingt der Tod einer jeden Parallelisierung sondern eher eine Notwendigkeit. Sie werden zu einem Übel, wenn es derer zu viele sind, bis dahin (z.B. auch erst am Schluss des Vorgangs) nötig.
Nehmen wir das Beispiel des Ego-Shooters. Was wenn die Berechnung der KI 100Takte benötigt und der Sound nur 10Takte?
Zum Thema der Multiprozessoren und normale Anwendungen. Wenn das Betriebssystem die Threads auf die Cores aufteilt, stört zumindest der Winamp nicht mehr den VideoCodec beim umwandeln.
Und am Ende der Fahnenstange sind wir noch lange nicht. Notfalls werden in die Core-Deckel direkt Peltierelemente oder Nano-Kompressoren/Kühlschränke eingebaut...
Thanatos
2004-07-10, 13:30:55
Also ich finde das sehr sinnvoll was Intel jetzt vorhat.Denn Intel hat langsam mächtig Probleme mit der Kühlung ihrer Prozessoren Bekommen.Jetzt wollen sie ja die pentium-M überarbeiten und dann als Desktop PCs verkaufen.Denn was man an AMD gut sieht das Pure Taktraten überhaupt nichts bringen, sondern die Leistung pro Takt ausschlaggebend ist.
BlackBirdSR
2004-07-10, 14:17:27
Original geschrieben von Thanatos
Also ich finde das sehr sinnvoll was Intel jetzt vorhat.Denn Intel hat langsam mächtig Probleme mit der Kühlung ihrer Prozessoren Bekommen.Jetzt wollen sie ja die pentium-M überarbeiten und dann als Desktop PCs verkaufen.Denn was man an AMD gut sieht das Pure Taktraten überhaupt nichts bringen, sondern die Leistung pro Takt ausschlaggebend ist.
Stimmt auch nicht 100%-ig
Viele zukünftige Designs werden auf stark vereinfachte Kerne abziehlen, die weniger parallel arbeiten, dafür aber hoch takten. Dafür kommen mehrere dieser Kerne auf eine CPU.
Tigerchen
2004-07-10, 19:49:37
Original geschrieben von BlackBirdSR
Stimmt auch nicht 100%-ig
Viele zukünftige Designs werden auf stark vereinfachte Kerne abziehlen, die weniger parallel arbeiten, dafür aber hoch takten. Dafür kommen mehrere dieser Kerne auf eine CPU.
Hmm. In der CT' stand daß ein viel höherer Takt nicht mehr drin ist weil CMOS schlicht am Ende ist und für die nächsten 10 Jahre auch nichts in Aussicht ist was die Lage verbessern könnte. In einem typischen Midrangeserver werden alleine 30% des Stroms für die Kühlung verbraten. Kann ja so kaum weitergehen. Oder?
Fraglich ob deine vereinfachten Kerne die Probleme lösen oder?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.