PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Dualcore - fühlt ihr euch nicht auch verschaukelt?


beos
2006-06-07, 20:32:27
Hi,

nachdem ich mir die Conroe Freds und die ersten Tests angeschaut habe ging mir der Satz, der von 6 Monaten überall gesagt wurde durch den Kopf.

"Dual und Multicore sind die Zukunft - da eine normale Singlecore Leistungssteigerung nicht mehr möglich ist"

Jetzt bringt Intel den conroe - der 15-50% schneller als jeder Athlon64 X2 ist
und wohl 100%-120% schneller als der P4-D.

Das führt jedoch die früher gemachte Aussage absurdum - trotzdem schwört jeder auf Dualcore - oder schwärmt von Multicores.....

Irgendwie sind wir doch alle von der Industrie übers Ohr gehauen worden - oder findet ihr nicht auch?

Beos

obergugg
2006-06-07, 20:35:20
Ich bin mit meinem X2 4400 absolut zufrieden - bleibt super kühl und läuft absolut stabil - Geschwindigkeit ist nicht alles. Bin immer noch der Meinung in eine "zukunftsichere" CPU investiert zu haben.

AnarchX
2006-06-07, 20:35:33
Pro-MHz-Leistung wird man immer steigern können.
Aber wie sind langsam an den Punkt angelangt, wo man nicht mehr die Taktraten so extrem steigern kann wie in der Vergangenheit.

huha
2006-06-07, 20:36:04
SMP hat schon seinen Sinn. Daß Spiele dadurch nicht schneller werden, dürfte wohl klar sein, andere Anwendungen können jedoch sehr davon profitieren, besonders dann, wenn man Multitasking betreibt und nicht nur mit einer Anwendung gleichzeitig arbeitet. Es ist zwar ärgerlich, daß man diesen Vorteil natürlich nur schwer in Benchmarks erfassen kann, vorhanden ist er allerdings dennoch.

-huha

beos
2006-06-07, 20:38:05
SMP gabs ja auch schon vorher.....

es geht mir mehr um die gemachten Aussagen bezüglich der Leistungssteigerung - die ja nicht mehr möglich sein sollte....

huha
2006-06-07, 20:42:34
beos[/POST]']SMP gabs ja auch schon vorher.....

Und DC ist nichts anderes als SMP, ergo gelten auch die Aussagen für SMP.

es geht mir mehr um die gemachten Aussagen bezüglich der Leistungssteigerung - die ja nicht mehr möglich sein sollte....

Leistungssteigerung ist immer möglich, nur sind aktuelle Anwendungsfelder so gestaltet, daß die Leistung besser durch Hinzufügen weiterer Prozessoren zu erhöhen ist als durch mehr Rohleistung der einzelnen Einheit. Viele Aufgaben sind parallelisierbar, so daß SMP hier sinnvoll erscheint; auch sind die Entwicklungskosten für eine SMP-Lösung (die aus mehreren "alten" Kernen besteht) deutlich geringer als die Entwicklung eines neuen Einzelkernes, so daß unterm Strich eine schnellere Marktreife und reduzierte Kosten für SMP sprechen.

-huha

(del676)
2006-06-07, 20:44:31
1. abwarten und schaun wie sich der conroe OVERALL schlägt - in superpi isser schnell - wow X-D
ich will games/anwendungen sehen und dann kannst sagen zwischen 5 und 50% (wobei ich das 50% ausserhalb von superpi STARK anzweifle)

2. abwarten auf neue X2s
3. mit einem dualcore hast du die doppelte rechenkapazität - toll wenn ein neuer cpu dann grandiose 20% rausholt ;)

Senior Sanchez
2006-06-07, 20:45:17
Es sind wie gesagt schon noch Leistungssteigerungen möglich - allerdings hat alles seine Grenzen, wie anarchx bereits sagte.

Man hat allerdings erkannt, dass die Zukunft im SMP Bereich liegt und das signifikante Performancesprünge in Zukunft nur noch mit dieser Technologie in höherem Maße möglich sind. Dies gilt natürlich nur, solange nicht plötzlich eine Revolution kommt, die auf einmal auch wieder SingleCore-Anwendungen extrem beschleunigen würde... nur wird es diese dann wohl kaum noch geben, da der Großteil einfach auf mehrere Kerne ausgelegt ist.

Coda
2006-06-07, 20:45:27
AnarchX[/POST]']Pro-MHz-Leistung wird man immer steigern können.
Ganz sicher nicht. Bzw. irgendwann nur noch über immer größere Caches.

beos
2006-06-07, 20:46:52
Ich seh schon - die Marktingstrategen haben Dich fest im Griff :wink:

Wie Du oben sicherlich gelesen hast - habe ich auch nur Dualcore CPU's miteinander verglichen.

Der Conroe dürfte aber 100-120% schneller sein, als ein gleichgetakteter P4-Dualcore.

-> ergo : Leistungsverdopplung OHNE die Anzahl der Cores zu erhöhen.

beos
2006-06-07, 20:48:29
Senior Sanchez[/POST]']

Man hat allerdings erkannt, dass die Zukunft im SMP Bereich liegt und das signifikante Performancesprünge in Zukunft nur noch mit dieser Technologie in höherem Maße möglich sind.

100-120% mehr Performance ist aber eine signifikante Erhöhung...!

Ein Single Core Conroe wäre auch doppelt so schnell wie ein single Core P4.

Blutmaul
2006-06-07, 20:49:27
Naja, alle halbe Jahre einen Schub um bis zu 50 mehr Leistung, wie bei den Grafikkarten, gibt es bei den CPUs nach wie vor nicht.
Von daher, nö.

beos
2006-06-07, 20:49:35
AnarchX[/POST]']Pro-MHz-Leistung wird man immer steigern können.



Genau das würde aber als unmöglich hingestellt - jetzt gehts auf einmal doch...

beos
2006-06-07, 20:50:14
Blutmaul[/POST]']Naja, alle halbe Jahre einen Schub um bis zu 50 mehr Leistung, wie bei den Grafikkarten, gibt es bei den CPUs nach wie vor nicht.
Von daher, nö.


Hmmm...noch keine Test's gelesen?

huha
2006-06-07, 20:50:42
beos[/POST]']Ich seh schon - die Marktingstrategen haben Dich fest im Griff :wink:

Wie Du oben sicherlich gelesen hast - habe ich auch nur Dualcore CPU's miteinander verglichen.

Der Conroe dürfte aber 100-120% schneller sein, als ein gleichgetakteter P4-Dualcore.

-> ergo : Leistungsverdopplung OHNE die Anzahl der Cores zu erhöhen.

Neue Architekturen sind allerdings sehr, sehr teuer. Der Conroe basiert auf einer neuen Architektur, die schon entwickelt und eingeführt wurde und ist nur die Umsetzung auf den Desktop. Daß das abzusehen war, war schon seit längerer Zeit bekannt, stellt also keinen Grund zur Aufregung dar.

Verschiedene Architekturen lassen sich leider nicht direkt miteinander vergleichen, da es sicherlich auch für den Conroe Anwendungsgebiete gibt, in denen er dem alten PIV hinterherhinkt.


-huha

CharlieB
2006-06-07, 20:51:18
und wenn in ein paar Jahren die 8wayCores standart sind,
und es einen "Celeron XYZ" gibt bei dem 7(defekte?) Cores deaktiviert sind,
wirst du wohl dann auch wieder das Zitat rausholen?

wo und wer hat das eigentlich gesagt?
Bitte einen Link dazu ....
oftmals schreiben Leute Phradsen aus dem Sachverhalt die im Artikel insgesamt eine andere Bedeutung haben ...


CB


@ Butter
der P1/166MHz war einfach eine meiner Besten CPUs,
vor 2 Wochen erst habe ich diese abgegeben an einen Sammler ...
ein OC King der seines Gleichen damals suchte :)

Butter
2006-06-07, 20:51:40
Ich hätte meiner Meinung nach lieber auf einen Single Core mit höhere Taktung nehmen sollen, als einen schwächeren Dual Core mit niedrigerer Taktung.
naja, vllt kommt ja noch die Dual Core Anpassung schlecht hin und alles wird gut.
Erinnert mich irgendwie an die ersten Pentiums mit MMX Erweiterung, viel Medien Tamtam und nix dahinter.
1993 (?) habe ich einen Pentium MMX 166 Mhz gekauft, da zu gab es Multimedia Cds und Spiele die nur mit MMX liefen, der größte Schund seiner Zeit.

Godmode
2006-06-07, 20:55:30
Ich denke die aktuelle Software ist einfach nicht optimal auf SMP ausgelegt, vor allem ist es für den Mensch ziemlich schwierig in mehreren Threads zu denken. Man macht immer Dinge nach einander, aber fast nie gleichzeitig.

(del)
2006-06-07, 21:01:08
huha[/POST]']SMP hat schon seinen Sinn. Daß Spiele dadurch nicht schneller werden, dürfte wohl klar sein, andere Anwendungen können jedoch sehr davon profitieren, besonders dann, wenn man Multitasking betreibt und nicht nur mit einer Anwendung gleichzeitig arbeitet. Es ist zwar ärgerlich, daß man diesen Vorteil natürlich nur schwer in Benchmarks erfassen kann, vorhanden ist er allerdings dennoch
Dieser Ansatz gefällt mir aber überhaupt nicht. Erst wenn man 2 fette Anwendungen fährt, lohnt es sich? Schon mit einem frisch gebooteten Desktop laufen zig Prozesse und zig*n Threads. Das profitiert nicht vom SMP? Oder ist nur eNTe wieder dran schuld?

"Hmmm... Ich will jetzt Oblivion spielen. Bevor ich es starte überleg ich aber zuerst was ich noch im Hintergrund laufen lassen kann, damit mein DualCore auch wirklich ausgenutzt wird". Für alle die keinen Bock haben ausgerechnet dann ihre Urlaubsvideos von dv-avi in MPEG/whatever umzuwandeln, ist Dualcore eher sinnlos? Find ich irgendwie eher arm.

Blutmaul
2006-06-07, 21:04:36
Ah, so ist das doch garnicht, aber Du brauchst auch NICHTS ausschalten.
Und das ist verdammt angenehm!

(del)
2006-06-07, 21:05:03
Butter[/POST]']Ich hätte meiner Meinung nach lieber auf einen Single Core mit höhere Taktung nehmen sollen, als einen schwächeren Dual Core mit niedrigerer Taktung.
naja, vllt kommt ja noch die Dual Core Anpassung schlecht hin und alles wird gut.
Erinnert mich irgendwie an die ersten Pentiums mit MMX Erweiterung, viel Medien Tamtam und nix dahinter.
1993 (?) habe ich einen Pentium MMX 166 Mhz gekauft, da zu gab es Multimedia Cds und Spiele die nur mit MMX liefen, der größte Schund seiner Zeit.
So ist es. Obwohl es an sich nicht schlecht ist. Leider nicht so genutzt. Wie alles andere :( Ich hab gestern über den originalen FF 1.5.0.4 den tete009 Build (mmx) drübergebügelt und das Teil geht auf dem Barton MERKBAR zügiger zur Sache. Sowas ärgert irgendwie ziemlich.

(del)
2006-06-07, 21:08:47
Blutmaul[/POST]']Ah, so ist das doch garnicht, aber Du brauchst auch NICHTS ausschalten.
Und das ist verdammt angenehm!
Was denn so? Den Virenscaner? Sobald die Anwendungen brauchbar auf 2 Cores getrimmt sind, werden sie sich beide Cores krallen. Laufen dann halt schneller. Dann mußt Du aber wieder was abschalten, sonst laufen sie ja langsamer. Das will man dann wieder nicht. Teufelskreis? ;)

huha
2006-06-07, 21:11:59
BessereHälfte[/POST]']Dieser Ansatz gefällt mir aber überhaupt nicht. Erst wenn man 2 fette Anwendungen fährt, lohnt es sich? Schon mit einem frisch gebooteten Desktop laufen zig Prozesse und zig*n Threads. Das profitiert nicht vom SMP? Oder ist nur eNTe wieder dran schuld?

"Hmmm... Ich will jetzt Oblivion spielen. Bevor ich es starte überleg ich aber zuerst was ich noch im Hintergrund laufen lassen kann, damit mein DualCore auch wirklich ausgenutzt wird". Für alle die keinen Bock haben ausgerechnet dann ihre Urlaubsvideos von dv-avi in MPEG/whatever umzuwandeln, ist Dualcore eher sinnlos? Find ich irgendwie eher arm.

Spielen ist nicht alles, aufwendige Simulationen könnten übrigens von SMP durchaus stark profitieren. Es geht allerdings nicht darum, extra Last zu erzeugen, sondern die Freiheit zu haben, mehrere Dinge nebenher zu erledigen. Ich bin z.B. ein typischer Fall, der SMP benötigt (leider habe ich es nicht X-D), da ich es bevorzuge, viele Dinge gleichzeitig zu machen; Viele Browserfenster sind geöffnet, ich programmiere nebenher und/oder lasse irgendwas rendern (Musik, Texte, Bilder, ...). Mit SMP lassen sich diese Dinge einfach so erledigen, daß man keinen Einschränkungen hinsichtlich der Arbeitsgeschwindigkeit unterliegt, d.h. das System lahmt nicht rum, sobald ich eine anspruchsvolle Aufgabe angehe.
Dieser Vorteil ist natürlich schwer in Benchmarks zu erfassen, er steigert allerdings die Produktivität, weil ich einfach nicht mehr darauf warten muß, daß die aktuelle (CPU-intensive) Aufgabe abgearbeitet wurde, bis ich wieder normal arbeiten kann.

-huha

r00t
2006-06-07, 21:14:14
hatte das wochenende mal die ehre mit nem X2 3800+ bei nem kumpel zu arbeiten..

hab mir immer wieder den prozess verlauf im taskmanager angeschaut und gehofft das windows xp die last einwandfrei verteilt..dies war nich immer so...

fazit: ich glaube die cpu ist erst richtig schnell wenn man sie übertaktet...ich hatte jedenfalls keine bemerkbaren geschwindigkeitsunterschiede gespürt zwischen X2 3800+ und nem single core opteron @ 3,0ghz!

beos
2006-06-07, 21:15:16
Irgendwie geht die diskussion an meiner frage vorbei....

deswegen - ganz simpel....

würdet ihr lieber

a. conroe singlecore mit 2,67 ghz haben wollen
b. aktuellen p4 dualcore mit 3,6 ghz

ich denke mal, dass der conroe trotz singlecore und 1 ghz weniger takt schneller sein wird......

sicherlich hat smp vorteile - es geht hier aber um die steigerung ohne x cores

CharlieB
2006-06-07, 21:16:45
denke nicht dass der Conroe zB beim rendern schneller ist ...

CB

(del)
2006-06-07, 21:18:23
r00t[/POST]']hatte das wochenende mal die ehre mit nem X2 3800+ bei nem kumpel zu arbeiten..

hab mir immer wieder den prozess verlauf im taskmanager angeschaut und gehofft das windows xp die last einwandfrei verteilt..dies war nich immer so...

fazit: ich glaube die cpu ist erst richtig schnell wenn man sie übertaktet...ich hatte jedenfalls keine bemerkbaren geschwindigkeitsunterschiede gespürt zwischen X2 3800+ und nem single core opteron @ 3,0ghz!
Ich hab oft das Gefühl, die eNTen unterstützen 2 Cores nicht besser als w2k HyperThreading unterstützt. Als Windowsnutzer dürften wir darüber garnicht schwadronieren dürfen :uup: Vielleicht schaltet sich noch ein Linuxer&Co in die Disku ein. Hauptsache die ewig 'geschmeidiger gleitenden' HyperThreading-Fans trashen den Thread nicht all zu schnell ;)

beos
2006-06-07, 21:20:18
CharlieB[/POST]']denke nicht dass der Conroe zB beim rendern schneller ist ...

CB

kommt wahrscheinlich auf das renderprogramm an..

unter povray ist ein conroe mit 2,67 ist 39 % schneller als ein fx mit 2,8 ghz
(mit einem thread gemessen)...

CharlieB
2006-06-07, 21:22:40
okay ich habs wirklich nur aus dem Bauch raus geschätzt.

der Conroe als Singelcore wird übrigens Millville heissen, dann werden wir ja sehen ...

Kannst du bitte noch einen Link zu der Aussage aus deinem Topic geben,
ich würde gerne nachlesen wer das wo in welchem Zusammenhang gesagt hat ...

CB

beos
2006-06-07, 21:27:55
CharlieB[/POST]']okay ich habs wirklich nur aus dem Bauch raus geschätzt.

der Conroe als Singelcore wird übrigens Millville heissen, dann werden wir ja sehen ...

Kannst du bitte noch einen Link zu der Aussage aus deinem Topic geben,
ich würde gerne nachlesen wer das wo in welchem Zusammenhang gesagt hat ...

CB

Hab ich jetzt leider nicht zur hand.
aber z.b. in der c't (prozessorgeflüster) stand , dass intel sich zum dualcore entschieden hat, da weitere taktfrequenzsteigerungen - und so keine leistungssteigerungen - mehr möglich seinen.
(intel wollte ja den p4 auf 9 ghz bringen)

Blutmaul
2006-06-07, 21:30:49
BessereHälfte[/POST]']Was denn so? Den Virenscaner? Sobald die Anwendungen brauchbar auf 2 Cores getrimmt sind, werden sie sich beide Cores krallen. Laufen dann halt schneller. Dann mußt Du aber wieder was abschalten, sonst laufen sie ja langsamer. Das will man dann wieder nicht. Teufelskreis? ;)

Du weist garnicht, was selbst einer, der meistens eher spielt, alles an Programmen laufen hat.

Virenscanner
Skype-Konferenz
Internetbrowser
Musik
Spiel X
Download Y
Chatprogramm Z

Trotzdem bleibt der Rechner immer Reaktionsfreudig und ich bin total zufrieden.
In Zukunft werden die Programme mehr und mehr auf Dual/Multicore abgestimmt sein und der Leistungsgewinn wird sehr deutlich werden, denke ich.
Das fressen die mitlaufenden Programme in der Grösse auch nicht auf.

Super Grobi
2006-06-07, 21:31:07
Dualcore - fühlt ihr euch nicht auch verschaukelt?

---> Nein, Quake4 mit dem 1.2 Patch hat mir gezeigt was Sache ist. Auch habe ich in anderen Anwendungen schon von DC profitiert.

Warum dreht sich jetzt hier alles um diesen neune Intel Prozi? Was das Teil gehypt wird, ist ja nicht mehr normal. Warten wir ab und fertig. Ich will Benchmarks von Games sehen im Vergleich zur entsprechender Konkurenz oder zum vorgänger. Neue Prozis werden immer schneller sein als die alten. Mir ist das alles jetzt erstmal wurst. Ich hab mir den Opti gekauft und fest vorgenommen, das dieser das ganze Jahr drin bleibt.

SG

CharlieB
2006-06-07, 21:34:07
beos[/POST]']Hab ich jetzt leider nicht zur hand.
aber z.b. in der c't (prozessorgeflüster) stand , dass intel sich zum dualcore entschieden hat, da weitere taktfrequenzsteigerungen - und so keine leistungssteigerungen - mehr möglich seinen.
(intel wollte ja den p4 auf 9 ghz bringen)

das ist jetzt aber was vollkommen anderes als das was du im Topic als Zitat ausgegeben hast.

Leistungssteigerung und Taktfrequenzsteigerungen sind nicht das gleich ;)

CB

BlackBirdSR
2006-06-07, 21:34:10
beos[/POST]']

Das führt jedoch die früher gemachte Aussage absurdum - trotzdem schwört jeder auf Dualcore - oder schwärmt von Multicores.....

Irgendwie sind wir doch alle von der Industrie übers Ohr gehauen worden - oder findent ihr nicht auch?

Beos

Ich sehe das wie bei SM3 (NV40).
Man brauchte es noch nicht. Wirklich Software gab es dafür auch nicht.
Aber es war oft die bessere Wahl, beim Neukauf auf ein SM3 Modell umzusteigen. Jetzt kann man es ab und an nutzen.

Bei Dual-Core ist es ähnlich. Man braucht es jetzt sicherlich nicht. Aber wer sich beim Neukauf dafür entscheidet, kann es in ein paar Monaten vielleicht auch nutzen.
Wer ne Single-Core kauft, wird auch nicht blöd aus dem Fenster gucken müssen.

Ist eine dieser schwammigen Übergangszeiten, wo man nichts recht falsch oder richtig machen kann. Man gibt immer nur Geld aus, und hat das Gefühl nicht das zu bekommen, was man wirklich will.

Bluescreen2004
2006-06-07, 21:39:35
beos[/POST]']Irgendwie geht die diskussion an meiner frage vorbei....

deswegen - ganz simpel....

würdet ihr lieber

a. conroe singlecore mit 2,67 ghz haben wollen
b. aktuellen p4 dualcore mit 3,6 ghz

ich denke mal, dass der conroe trotz singlecore und 1 ghz weniger takt schneller sein wird......

sicherlich hat smp vorteile - es geht hier aber um die steigerung ohne x cores


Als Spieler B) aber dann X2 :)

Die meisten kracher wie Crysis und spiele mit der Unreal 3 Engine werden Dualcore nutzen.

Die aktuelle "Physik" diskussion spricht auch eher für Dualcore...

MFG

drmaniac
2006-06-07, 21:51:57
ich: lieber mehr cores, auch wenn diese dann einzeln langsamer sind wie ein schneller singel core.

mir geht das so auf den senkel, dass mein system manchmal so träge und ausgelastet ist... deswegen würde ich auch 2xquadcore "langsamere" FX cpus vor einem quad core "schneller" conroe vorziehen ;)



Ulukay[/POST]']1. abwarten und schaun wie sich der conroe OVERALL schlägt - in superpi isser schnell - wow X-D
ich will games/anwendungen sehen und dann kannst sagen zwischen 5 und 50% (wobei ich das 50% ausserhalb von superpi STARK anzweifle)



( ) du hast die conroe threads hier komplett gelesen
( ) du hast tombmans postings/tests gelesen
( ) du hast die ganzen benchmark artikel im I-net die letzten Tage gelesen

:D ;)

Aqualon
2006-06-07, 21:52:15
BlackBirdSR[/POST]']Ist eine dieser schwammigen Übergangszeiten, wo man nichts recht falsch oder richtig machen kann. Man gibt immer nur Geld aus, und hat das Gefühl nicht das zu bekommen, was man wirklich will.Ich finde mit SM3 kann man das nicht so wirklich vergleichen. Neue Techniken im Grafikkartenmarkt bringen einem als User erstmal Null, wenn sie nicht unterstützt werden. Bei DualCores hat man ja auch jetzt schon genügend Fälle, bei denen sie Vorteile gegenüber den SingleCores haben. Bei mir sind unter Windows gerade fast 500 Threads aktiv und da bringt es schon etwas, wenn die Last auf mehrere Cores verteilt werden kann.

Wer natürlich denkt, dass seine Programme auf einmal 100% schneller laufen, der kann sich ruhig verschaukelt vorkommen, aber ist dann auch selbst Schuld.

Aqua

BlackBirdSR
2006-06-07, 21:53:13
Aqualon[/POST]']Ich finde mit SM3 kann man das nicht so wirklich vergleichen. Neue Techniken im Grafikkartenmarkt bringen einem als User erstmal Null, wenn sie nicht unterstützt werden. Bei DualCores hat man ja auch jetzt schon genügend Fälle, bei denen sie Vorteile gegenüber den SingleCores haben. Bei mir sind unter Windows gerade fast 500 Threads aktiv und da bringt es schon etwas, wenn die Last auf mehrere Cores verteilt werden kann.

Wer natürlich denkt, dass seine Programme auf einmal 100% schneller laufen, der kann sich ruhig verschaukelt vorkommen, aber ist dann auch selbst Schuld.

Aqua

So gesehen hast du natürlich recht.
Wollte die Sache auch eigentlich mehr an Spielen festmachen. Mein Fehler :)

beos
2006-06-07, 22:11:20
CharlieB[/POST]']das ist jetzt aber was vollkommen anderes als das was du im Topic als Zitat ausgegeben hast.

Leistungssteigerung und Taktfrequenzsteigerungen sind nicht das gleich ;)

CB

Das ist auch eine Zusammenfassung dessen, was damals auf den bekannten webseiten und in den zeitschriften stand.

(du kannst gerne spekulationen posten warum intel nicht einen single pentium 4 mit > 4 ghz rausgebracht hat :smile: )

CharlieB
2006-06-07, 22:17:16
das heisst du verfasst "zusammenfassungen" ohne Hinweis darauf
und eine Quellenangabe gibts auch nicht.

Sorry aber so macht man das doch nun wirklich nicht ...
Im Topic dein "Zitat" weisst du nichtmehr woher,
und oben ein weiteres Zitat aus der ct das es dann so auch wieder nicht gibt.

ne an solcherlei wilden Wortspielen beteilige ich mich lieber nichtmehr ;)

CB

beos
2006-06-07, 22:17:51
Aqualon[/POST]']IBei mir sind unter Windows gerade fast 500 Threads aktiv und da bringt es schon etwas, wenn die Last auf mehrere Cores verteilt werden kann.

Aqua

500 :eek: ...bei mir sind es nie mehr wie 50....

beos
2006-06-07, 22:18:38
CharlieB[/POST]']

ne an solcherlei wilden Wortspielen beteilige ich mich lieber nichtmehr ;)

CB

OK - es soll ja leute geben, die selbst etwas suchen können... ;)

Außerdem habe ich nie etwas von Zitat geschrieben - also muss ich auch keine quelle angeben.

Senior Sanchez
2006-06-07, 22:30:04
beos[/POST]']500 :eek: ...bei mir sind es nie mehr wie 50....

Threads != Prozesse ;)

Bei mir laufen atm 50 Prozesse und 830 Threads.

thade
2006-06-07, 22:31:26
Ulukay[/POST]'](wobei ich das 50% ausserhalb von superpi STARK anzweifle)

Weil bei den richtigen Gamerauflösungen eh die Graka limitiert, bleibt nicht mehr viel übrig von dem Conroe Boost, zB gegenüber einem X2.

Wer nen X2 hat, braucht auch nicht aufrüsten auf Conroe, der kann auf Quadcore warten ;) Aber man rüstet ja nicht immer auf, weil es Sinn machen sollte ^^

Addy
2006-06-07, 22:33:24
beos[/POST]']500 :eek: ...bei mir sind es nie mehr wie 50....

Schau mal im Task-Manager auf den Reiter Systemleistung. Dort findest du bei Insgesamt die Threads und Prozesse Anzahl. ;)

Blutmaul
2006-06-07, 23:25:59
beos[/POST]']500 :eek: ...bei mir sind es nie mehr wie 50....

Ich hab im Moment fast nichts an und es sind >420 Threads...

Senior Sanchez
2006-06-07, 23:29:25
Blutmaul[/POST]']Ich hab im Moment fast nichts an und es sind >420 Threads...

Naja, es laufen aber Systemdienste, Windows XP arbeitet auch noch, du hast ne Netzwerkverbindung - alles gethreadede Sachen.

Über die Thread-Anzahl sollteste dir aber nicht so einen Kopf machen.

beos
2006-06-07, 23:30:14
Addy[/POST]']Schau mal im Task-Manager auf den Reiter Systemleistung. Dort findest du bei Insgesamt die Threads und Prozesse Anzahl. ;)

ups...trotzdem "nur" 350 :smile:

del_4901
2006-06-07, 23:58:21
Die Devs entwickeln immer auf den kleinsten gemeinsamen Nenner in der Zielgruppe. Für Spiele waren immer Single Core Cpu Nutzer die Anwendergruppe, das ändert sich nun. Es ist doch klar das die (Spiele) Devs erstmal Zeit brauchen um sich einzustellen. Denn x-CPUs programmieren sich komplett anders als eine CPU! Wohingegen in anderen Bereichen wo SMP schon länger Gang und Gebe ist, man die Leustung HEUTE schon nutzen kann. Aber das interessiert ja einen Großteil der Forenuser kaum bis gar nicht.

StefanV
2006-06-08, 00:09:37
AlphaTier[/POST]']Für Spiele waren immer Single Core Cpu Nutzer die Anwendergruppe, das ändert sich nun.
Naja, es gab früher, vor langer langer Zeit, als man noch 'Consumer DP Bretter' kaufen konnte, ein paar Games, die das konnten bzw können sollten...

Das ist aber auch schon urzeiten her, irgendwann anfang dieses Jahrhunterts...

beos
2006-06-08, 00:15:08
AlphaTier[/POST]']Die Devs entwickeln immer auf den kleinsten gemeinsamen Nenner in der Zielgruppe. Für Spiele waren immer Single Core Cpu Nutzer die Anwendergruppe, das ändert sich nun. Es ist doch klar das die (Spiele) Devs erstmal Zeit brauchen um sich einzustellen. Denn x-CPUs programmieren sich komplett anders als eine CPU! Wohingegen in anderen Bereichen wo SMP schon länger Gang und Gebe ist, man die Leustung HEUTE schon nutzen kann. Aber das interessiert ja einen Großteil der Forenuser kaum bis gar nicht.

Hi AlphaTier,

in diesem Fred geht es nicht um den Sinn von SMP.....sondern um die "früheren Hinweise " ohne SMP wäre nur noch minimale Leistungsprünge (im allgemeinen sinn) möglich

del_4901
2006-06-08, 00:19:50
beos[/POST]']Hi AlphaTier,

in diesem Fred geht es nicht um den Sinn von SMP.....sondern um die "früheren Hinweise " ohne SMP wäre nur noch minimale Leistungsprünge (im allgemeinen sinn) möglich
Wenn man sich auf Silizium bezieht ist die Aussage definitv richtig, auch wenn das heute noch nicht so klar zu Tage tritt.

sok-1
2006-06-08, 00:26:19
Ich kann mir nicht vorstellen, dass alle die hier einen Dualcore haben wie wild am Rendern sind bzw. anderen Tätigkeiten nachgehen, die von Dualcore so dermaßen profitieren. Auch die mehreren hundert Threads die in Windows meist vor sich hinschlummern schaft ein Singlecore doch auch.

Hab bislang (leider) jedenfalls keine grösseren Leistungssteigerungen von Dualcores gesehen, nur durch die Verteilung der im Hintergrund laufenden bereits angesprochenen Threads.

Meistens fehlt die Leistung doch eher bei Games, oder nicht?

Zwei Grafikkarten bringen auf Spiele bezogen mehr Leistung als ein zwei Kern-Prozessor... trotzdem wird gerne mal auf 2 Karten herumgehackt, wie unnütz sie doch seien, und diese Leute haben gerne mal gleichzeitig ein Dualcore drin.


Komisch: Preisleistungsmässig fährt man altuell als Spieler doch wohl mit einem SingleCore Prozessor und einer Graka am besten?

Den einzigen Unterschied den ich aktuell Spüre ist ein etwas Smootheres arbeiten, nun gut ok, aber manchmal frag ich mich schon, ob es dieses mal nicht doch noch ein dafür schnellerer Singlecore getan hätte.

Denn wenn die DualCores erstmal ausgenutzt werden (von Spielen), dann wird ein Athlon x2 4xxx+ schon eher zum alten Eisen gehören.

Verdammte Übergangszeiten :-) Nicht Falsch verstehen, ich bin für die Zukunft und was die Spielewelten weiterbringt: Genauso wie ich für 32Bit-Rendering, T&L, Pixelshader 3, SLI/CF, PhysX-Karten, Dualcores und was es sonst noch für Erneuerungen gab, bin.

Aber irgendwie hat man dieses maue Gefühl, dass man in dem Moment wo man sich sowas neues in der PC-Welt kauft, dieses Neuerung kaum benutzen wird können - und das ist zum Teil irgendwie Schade, besonders ums liebe Geld...

SentinelBorg
2006-06-08, 00:33:28
sok-1[/POST]']Ich kann mir nicht vorstellen, dass alle die hier einen Dualcore haben wie wild am Rendern sind bzw. anderen Tätigkeiten nachgehen, die von Dualcore so dermaßen profitieren. Auch die mehreren hundert Threads die in Windows meist vor sich hinschlummern schaft ein Singlecore doch auch.

Hab bislang (leider) jedenfalls keine grösseren Leistungssteigerungen von Dualcores gesehen, nur durch die Verteilung der im Hintergrund laufenden bereits angesprochenen Threads.

Meistens fehlt die Leistung doch eher bei Games, oder nicht?

Zwei Grafikkarten bringen auf Spiele bezogen mehr Leistung als ein zwei Kern-Prozessor... trotzdem wird gerne mal auf 2 Karten herumgehackt, wie unnütz sie doch seien, und diese Leute haben gerne mal gleichzeitig ein Dualcore drin.


Komisch: Preisleistungsmässig fährt man altuell als Spieler doch wohl mit einem SingleCore Prozessor und einer Graka am besten?

Den einzigen Unterschied den ich aktuell Spüre ist ein etwas Smootheres arbeiten, nun gut ok, aber manchmal frag ich mich schon, ob es dieses mal nicht doch noch ein dafür schnellerer Singlecore getan hätte.

Denn wenn die DualCores erstmal ausgenutzt werden (von Spielen), dann wird ein Athlon x2 4xxx+ schon eher zum alten Eisen gehören.

Verdammte Übergangszeiten :-) Nicht Falsch verstehen, ich bin für die Zukunft und was die Spielewelten weiterbringt: Genauso wie ich für 32Bit-Rendering, T&L, Pixelshader 3, SLI/CF, PhysX-Karten, Dualcores und was es sonst noch für Erneuerungen gab, bin.

Aber irgendwie hat man dieses maue Gefühl, dass man in dem Moment wo man sich sowas neues in der PC-Welt kauft, dieses Neuerung kaum benutzen wird können - und das ist zum Teil irgendwie Schade, besonders ums liebe Geld...
Also wenn jetzt bei der WM wieder ständig die DVB-S Software auf dem zweiten Moni läuft während ich zocke, weiss ich genau, was mir ein Dualcore bringt. :)

Sentinel

del_4901
2006-06-08, 00:33:36
sok-1[/POST]']Ich kann mir nicht vorstellen, dass alle die hier einen Dualcore haben wie wild am Rendern sind bzw. anderen Tätigkeiten nachgehen, die von Dualcore so dermaßen profitieren. Auch die mehreren hundert Threads die in Windows meist vor sich hinschlummern schaft ein Singlecore doch auch.

Hab bislang (leider) jedenfalls keine grösseren Leistungssteigerungen von Dualcores gesehen, nur durch die Verteilung der im Hintergrund laufenden bereits angesprochenen Threads.

Meistens fehlt die Leistung doch eher bei Games, oder nicht?

Zwei Grafikkarten bringen auf Spiele bezogen mehr Leistung als ein zwei Kern-Prozessor... trotzdem wird gerne mal auf 2 Karten herumgehackt, wie unnütz sie doch seien, und diese Leute haben gerne mal gleichzeitig ein Dualcore drin.


Komisch: Preisleistungsmässig fährt man altuell als Spieler doch wohl mit einem SingleCore Prozessor und einer Graka am besten?

Den einzigen Unterschied den ich aktuell Spüre ist ein etwas Smootheres arbeiten, nun gut ok, aber manchmal frag ich mich schon, ob es dieses mal nicht doch noch ein dafür schnellerer Singlecore getan hätte.

Denn wenn die DualCores erstmal ausgenutzt werden (von Spielen), dann wird ein Athlon x2 4xxx+ schon eher zum alten Eisen gehören.

Verdammte Übergangszeiten :-) Nicht Falsch verstehen, ich bin für die Zukunft und was die Spielewelten weiterbringt: Genauso wie ich für 32Bit-Rendering, T&L, Pixelshader 3, SLI/CF, PhysX-Karten, Dualcores und was es sonst noch für Erneuerungen gab, bin.

Aber irgendwie hat man dieses maue Gefühl, dass man in dem Moment wo man sich sowas neues in der PC-Welt kauft, dieses Neuerung kaum benutzen wird können - und das ist zum Teil irgendwie Schade, besonders ums liebe Geld...

SLI CF etc sind mit SMP nicht zu vergleichen!

Die Spieleschmieden entwickeln Monate bis Jahre an ihrer Engine. Wenn man nicht damals schon an SMP gedacht hat, dann kann man einen Großteil des Codes über den Haufen schmeißen! bei SLI ist das ein wesenlich kleiners Problem, da hier nicht soviele Codezeilen zu überarbeiten sind. SMP Prgrammierung ist sehr viel komplizierter als manche denken! ... denkt doch nurmal daran .. CPU1 testet welche Objekte gezeichnet werden müssen und löscht überflüssige ... was passiert wenn gleichzeitig CPU2 versucht die Szene zu rendern ... im günstigsten Fall passiert gar nichts, aber im schlimmsten Fall versucht CPU2 das zu zeichnen was CPU1 gelöscht hat ...

beos
2006-06-08, 00:36:08
AlphaTier[/POST]']Wenn man sich auf Silizium bezieht ist die Aussage definitv richtig, auch wenn das heute noch nicht so klar zu Tage tritt.

Klingt ja schon fast philosophisch :smile: - aber was meinst du damit genau?

del_4901
2006-06-08, 00:39:30
beos[/POST]']Klingt ja schon fast philosophisch :smile: - aber was meinst du damit genau?
Aus den Taktraten kann ProMhz Leistung etc. kann man auf lange sicjt keine Leistung mehr hohlen. Die Hersteller suchen nach einem Ausweg ... MultiCore ist hier eine günstige Alternative .. die man erstmal unter die User und Devs bringen muss. Organic CPUs / QuantenCPUs sind auch eine Lösung, aber die kosten zuviel in der Entwicklung ... und noch will man mit Si soviel verdienen wie man kann!

sok-1
2006-06-08, 00:42:03
Hast mich vielleicht Falsch verstanden. Mein Vergleich ging mehr auf einer Ebene höher an: Womit bekommt man als Nutzer mehr Leistung fürs Geld. Dadurch kann ich durchaus SLI/CF mit Dualcore vergleichen.

Es ist mir durchaus bewusst: Deathlocks, Lifelocks, Race-Conditions und was es sonst noch für Probleme bei SMP-Programierung gibt. (Hab mich unter dem guten alten RTKernel selbst auch schon dran versucht)

Geb dir auch recht, wundere mich trotzdem hier und da wieso manche Leute SLI/CF-Systeme so schrecklich finden, obwohl sie davon vielleicht mehr hätten als von ihrem aktuell gekauften Dualcore...

Zukünftig stellt sich die Frage nicht mehr, und das ist auch echt gut so, siehe mein Posting oben. :-)

del_4901
2006-06-08, 00:46:39
sok-1[/POST]']Ist mir durchaus bewusst: Deathlocks, Lifelocks, Race-Conditions und was es sonst noch für Probleme bei SMP-Programierung gibt. (Hab mich unter dem guten alten RTKernel selbst auch schon dran versucht)

Geb dir auch recht, wundere mich trotzdem hier und da wieso manche Leute SLI/CF-Systeme so schrecklich finden, obwohl sie davon vielleicht mehr hätten als von ihrem aktuell gekauften Dualcore...

Zukünftig stellt sich die Frage nicht mehr, und das ist auch echt gut so, siehe mein Posting oben. :-)

Hast du es auch verstanden/verinnerlicht ... (ich kann falsch liegen) aber ich bin der Meinung das nicht-deterministische Programmierung durchaus was Reizvolles sein kann, aber viele Programmierer es einfach nicht verinnerlichen können. Ich bin auch der Meinung das einem ND Spass machen muss. Ich für meinen Teil finde deterministische Programmierung langweilig. ^^
Viele programmieren nach Trial & Error das hilft einem aber in dem Fall nicht weilter...

beos
2006-06-08, 00:46:47
AlphaTier[/POST]']Aus den Taktraten kann ProMhz Leistung etc. kann man auf lange sicjt keine Leistung mehr hohlen. Die Hersteller suchen nach einem Ausweg ... MultiCore ist hier eine günstige Alternative .. die man erstmal unter die User und Devs bringen muss. Organic CPUs / QuantenCPUs sind auch eine Lösung, aber die kosten zuviel in der Entwicklung ... und noch will man mit Si soviel verdienen wie man kann!

Der Conroe besitzt aber (kaum mehr? - weiss es leider nicht genau) transistoren
als ein prescott 2M....

Trotzdem ist er um längen schneller - also auf das Silizium - bzw dessen Fläche kann man doch nicht schliessen..

del_4901
2006-06-08, 00:49:05
beos[/POST]']Der Conroe besitzt aber (kaum mehr? - weiss es leider nicht genau) transistoren
als ein prescott 2M....

Trotzdem ist er im längen schneller - also auf das Silizium - bzw dessen Fläche kann man doch nicht schliessen..

Das hat niks zu sagen. Ich kann viele Transistoren "dumm" verschalten, und wenige "clever".

Die Netburst Architektur war einfach eine scheiss Entwicklung ... nochmal darf das Intel nicht passiern.

StefanV
2006-06-08, 00:59:46
beos[/POST]']Der Conroe besitzt aber (kaum mehr? - weiss es leider nicht genau) transistoren
als ein prescott 2M....

Trotzdem ist er um längen schneller - also auf das Silizium - bzw dessen Fläche kann man doch nicht schliessen..
Siehe P3, der hatte auch extrem wenig Transistoren, diese wurden aber recht effizient genutzt.

Der P4 hat einfach so viele weil man (so bescheuert es auch klingt) mehr Transistoren braucht, um mehr Takt rauszubekommen...

Noch dazu hat der P4 einige ziemlich Dämliche Eigenschaften, wie z.B. dieses Replay (gibt da auf Anandtech oder so 'nen Artikel drüber), kurzfassung: wenn da etwas nicht ganz passt, muss es nochmal gemacht werden, solang bis es passt (das das ganze Performance kostet und eine Verlustleistung erzeugt dürfte klar sein).

Aber wie Alpha Tier schon sagte, Netburst war einfach scheiße...

beos
2006-06-08, 01:02:09
Auf alle Fälle merkte ich an vielen Posts, dass doch viele auf den SMP Hype aufgesprungen sind.......

Wenn ich von 2-3 Jahren hier eine Umfrage gepostet hätte ob die 3DC user SMP wollen oder brauchen hätten sich höhstens die SETI jungs gemeldet - heute "brauchts" jeder.

in einem jahr verkundet intel, dass jeder x core user einen rosa kundelbär braucht......(hmm..mal ne umfrage posten) :ucrazy3:

del_4901
2006-06-08, 01:02:43
StefanV[/POST]']Aber wie Alpha Tier schon sagte, Netburst war einfach scheiße...
Das hat mich trotzdem nicht daran gehindert einen p4 zu kaufen. (wegen dem guten support) ... sicherlich gab es noch Andere die gedacht haben wie ich ... gut für Intel ... Glück im Unglück

del_4901
2006-06-08, 01:04:32
beos[/POST]']Auf alle Fälle merkte ich an vielen Posts, dass doch viele auf den SMP Hype aufgesprungen sind.......

Wenn ich von 2-3 Jahren hier eine Umfrage gepostet hätte ob die 3DC user SMP wollen oder brauchen hätten sich höhstens die SETI jungs gemeldet - heute "brauchts" jeder.

in einem jahr verkundet intel, dass jeder x core user einen rosa kundelbär braucht......(hmm..mal ne umfrage posten) :ucrazy3:
Also ganz ehrlich, der Consumer braucht SMP nicht vor nächstes Jahr(also in 24Monaten).
Ich für meinen Teil brauch es schon gestern (als angehender Dev) aber hatte bisher noch nicht das Kleingeld. ^^

beos
2006-06-08, 01:06:26
AlphaTier[/POST]']Also ganz ehrlich, der Consumer braucht SMP nicht vor nächstes Jahr(also in 24Monaten).
Ich für meinen Teil brauch es schon gestern (als angehender Dev) aber hatte bisher noch nicht das Kleingeld. ^^

Ich hatte schon 4 SMP (angefangen mit Abit BP6) Systeme - bin aber immer wieder auf Single zurückgegangen.... verrückt was:rolleyes:

del_4901
2006-06-08, 01:09:39
beos[/POST]']Ich hatte schon 4 SMP (angefangen mit Abit BP6) Systeme - bin aber immer wieder auf Single zurückgegangen.... :rolleyes:
Un das sagst du mir ins Gesicht!!!!! Blasphemie!!! auf den Scheiterhaufen mit Ihm! ... ganz ehrlich .. kleiner Tipp fang an mit deinem Rechner zu arbeiten (wie auch immer) anstatt zu spielen das kann genausoviel Spass machen, wenn man Interesse dafür entwickelt.

sok-1
2006-06-08, 01:10:10
Spass bringt Multithreaded-Programmierung in einem gewissen Rahmen durchaus (auf mich bezogen), aber wenn ich an das Debuggen von Multithreaded-Code in der größen Ordnung eines heutigen Spieles wie Quake4 denke, naja, jeder wie er Spaß definiert ;-)

del_4901
2006-06-08, 01:13:23
sok-1[/POST]']Spass bringt Multithreaded-Programmierung in einem gewissen Rahmen durchaus (auf mich bezogen), aber wenn ich an das Debuggen von Multithreaded-Code in der größen Ordnung eines heutigen Spieles wie Quake4 denke, naja, jeder wie er Spaß definiert ;-)
hrhrhr .. rockt, alles noch harmlos mit einem Bleistift und einem A4 Blatt finde ich dei größten Bugs in meiner SW ... es wurde einmal hart als der Compiler mir ein Mutex Objekt "wegoptimiert" hat ... darüber spreche ich aber nicht gern, weil das waren die schlimmsten Stunden in meinem Leben. ^^

Spätestens wenn dann nach 48h die ersten Selbstzweifel aufkommen ist man sowas von am Ende ...

beos
2006-06-08, 01:18:42
AlphaTier[/POST]']Un das sagst du mir ins Gesicht!!!!! Blasphemie!!! auf den Scheiterhaufen mit Ihm! ... ganz ehrlich .. kleiner Tipp fang an mit deinem Rechner zu arbeiten (wie auch immer) anstatt zu spielen das kann genausoviel Spass machen, wenn man Interesse dafür entwickelt.

:smile:

Das Problem war bisher, dass SMP Systeme immer zu laut waren....und es früher einen heiden Ärger mit Treiber gab....die wüssten nämlich nichts von SMP - es sei den man kaufte sind z.B. eine 5000 DM teure Spea Profikarte...

Früher gab es auch wirklich nur gannnnnnnz wenige Anwendungen, die SMP nutzen....3D Studio - und das auch nur unter Windows NT....

Zuletzt hatte ich einen SD31P mit einem 805er....aber selbst overclocked war das Ding vom "Feeling" her nicht schneller als mein jetziger Athlon64 3200+
(außer in 3DS Max und DVD Shrink)

StefanV
2006-06-08, 01:20:25
AlphaTier[/POST]']Das hat mich trotzdem nicht daran gehindert einen p4 zu kaufen. (wegen dem guten support) ... sicherlich gab es noch Andere die gedacht haben wie ich ... gut für Intel ... Glück im Unglück
Naja, ich hab hier auch gerad (wieder) sowas stehen, in meinem Falle mit 2 Prozessoren und RIMMs (wenn der scheiß doch nur nicht so teuer wäre, wie er heiß ist)....

del_4901
2006-06-08, 01:21:56
StefanV[/POST]']Naja, ich hab hier auch gerad (wieder) sowas stehen, in meinem Falle mit 2 Prozessoren und RIMMs (wenn der scheiß doch nur nicht so teuer wäre, wie er heiß ist)....

^^ das ist aber die Zukunft ... das kahm nur damals viel viel zur früh.

sok-1
2006-06-08, 01:27:39
AlphaTier[/POST]']
Spätestens wenn dann nach 48h die ersten Selbstzweifel aufkommen ist man sowas von am Ende ...

*g* kenn ich gut... auch normale Programmierung ist zum Teil schon Nerven aufreibend - bin mal gespannt ob es in Zukunft merklich mehr Bugs durch multithreaded Programmierung geben wird.

Wird ja leider nicht einfacher - nochmehr was man zu bedenken hat, bei immer größeren Softwareprojekten, unter noch mehr Erfolgs& Zeitdruck zusammengeschustert... aber ich glaub nun werd ich langsam Offtopic. Gute Nacht ^^

rpm8200
2006-06-08, 08:47:14
AlphaTier[/POST]']Hast du es auch verstanden/verinnerlicht ... (ich kann falsch liegen) aber ich bin der Meinung das nicht-deterministische Programmierung durchaus was Reizvolles sein kann, aber viele Programmierer es einfach nicht verinnerlichen können. Ich bin auch der Meinung das einem ND Spass machen muss. Ich für meinen Teil finde deterministische Programmierung langweilig. ^^
Viele programmieren nach Trial & Error das hilft einem aber in dem Fall nicht weilter...Ähm... ist OT, will aber trotzdem Deine Definition von nicht-Detreminismus hören. Bzw. was macht nicht-deterministische Programmierung für Dich aus?

PatkIllA
2006-06-08, 10:24:23
beos[/POST]']Ich hatte schon 4 SMP (angefangen mit Abit BP6) Systeme - bin aber immer wieder auf Single zurückgegangen.... verrückt was:rolleyes:
Ich hatte zwei (BP6 und P3 Dual) und fahre seit Jahren dann auch wieder Single (zur Zeit immer noch Athlon XP), was aber daran liegt, dass es damals als ich auf Athlon gewechselt bin kaum günstige Dualbretter gab und die Prozessoren auch noch teurer waren. Gelegentlich geht es mir aber schon auf den Senkel,wie leicht man den Rechner doch ans Limit bringt und alles merklich zäher wird.

del_4901
2006-06-08, 11:51:53
rpm8200[/POST]']Ähm... ist OT, will aber trotzdem Deine Definition von nicht-Detreminismus hören. Bzw. was macht nicht-deterministische Programmierung für Dich aus?

Wenn man Haare spalten will will kann man mir natürlich nen Strick draus drehen^^ Nichtsequenzielle bzw. parallele Programmierung vllt. der bessere Begriff. Die beiden sind aber auch nichtmehr deterministisch, da man ja irgendwie Zwangsläufig den Zufall mit eingebaut bekommt. (Oder weißt man die Zeitscheibe abläuft ... oder PCI Gerät Nr. sowieso eine Unterbrechung anfortert) Ich kann dir z.B nicht genau sagen wieviel Prozesse gerade an welcher Stelle in meinem Programm sich befinden. von vielen kann ichs vermuten (in der Warteschlange ^^) aber genau wissen kann ich das nicht.

StefanV
2006-06-08, 12:52:28
PatkIllA[/POST]']Ich hatte zwei (BP6 und P3 Dual) und fahre seit Jahren dann auch wieder Single (zur Zeit immer noch Athlon XP), was aber daran liegt, dass es damals als ich auf Athlon gewechselt bin kaum günstige Dualbretter gab und die Prozessoren auch noch teurer waren. Gelegentlich geht es mir aber schon auf den Senkel,wie leicht man den Rechner doch ans Limit bringt und alles merklich zäher wird.
Zwischendurch gabs aber sau günstige Dual Bretter (Tyan Tiger MP).

Die CPUs waren auch teilweise lange Zeit 'MP fähig', zumindest die Palominos, die ersten TBred AFAIK auch.

Mal schauen, was aus dem '4x4' Dingsda von AMD wird, ob man da auch 'normale' Single COre CPUs reinkloppen kann :devil:

BlackBirdSR
2006-06-08, 13:09:12
StefanV[/POST]']Zwischendurch gabs aber sau günstige Dual Bretter (Tyan Tiger MP).

Die CPUs waren auch teilweise lange Zeit 'MP fähig', zumindest die Palominos, die ersten TBred AFAIK auch.

Mal schauen, was aus dem '4x4' Dingsda von AMD wird, ob man da auch 'normale' Single COre CPUs reinkloppen kann :devil:

Diese müssten dazu einen cHT Link haben.
Ob AMD den überall hat?

StefanV
2006-06-08, 13:10:32
BlackBirdSR[/POST]']Diese müssten dazu einen cHT Link haben.
Ob AMD den überall hat?
Eben genau DAS ist die Frage, um die es hier geht.

Es ist möglich, das ein paar mehr CPUs '4x4' kompatibel sind, es ist aber auch nicht möglich.
Genau wissen wirs erst dann, wenns jemand mal ausprobiert hat, leider...

BlackBirdSR
2006-06-08, 13:24:50
StefanV[/POST]']Eben genau DAS ist die Frage, um die es hier geht.

Es ist möglich, das ein paar mehr CPUs '4x4' kompatibel sind, es ist aber auch nicht möglich.
Genau wissen wirs erst dann, wenns jemand mal ausprobiert hat, leider...

Was heißt ausprobieren?
Wenn die CPU den cHT nicht aktivieren darf, dann geht es auch nicht.
Egal ob sie ihn nun hat oder nicht.

Deaktiviert AMD diese physikalisch oder per Microcode ist es eh aus.

Gast
2006-06-08, 14:19:16
Werden zukünftig viele Programme den einen Dualprozessor voraussetzten
oder kann man mittelfristig auch mit alles noch mit einen Singelprozessor bearbeiten ?

:)

del_4901
2006-06-08, 14:21:19
Gast[/POST]']Werden zukünftig viele Programme den einen Dualprozessor voraussetzten
oder kann man mittelfristig auch mit alles noch mit einen Singelprozessor bearbeiten ?

:)

DC SW läuft natürlich auch auf einem SC nur andersrum gehts ned.
Also geht schon, nur es bringt keine zusätzl. Leistung.

PatkIllA
2006-06-08, 14:23:00
AlphaTier[/POST]']DC SW läuft natürlich auch auf einem SC nur andersrum gehts ned.
:confused:
laufen tuts in beide Richtung. Nur die Geschwindigkeit ist evtl. hinüber.

del_4901
2006-06-08, 14:25:41
PatkIllA[/POST]']:confused:
laufen tuts in beide Richtung. Nur die Geschwindigkeit ist evtl. hinüber.
Multithreaded SW läuft auch auf einem Core. Parallele SW ebenso.
Nur normale sequenzielle SW läuft nicht auf 2 Cores. (einer liegt brach)

rpm8200
2006-06-08, 15:28:26
AlphaTier[/POST]']Wenn man Haare spalten will will kann man mir natürlich nen Strick draus drehen^^ Nichtsequenzielle bzw. parallele Programmierung vllt. der bessere Begriff. Die beiden sind aber auch nichtmehr deterministisch, da man ja irgendwie Zwangsläufig den Zufall mit eingebaut bekommt. (Oder weißt man die Zeitscheibe abläuft ... oder PCI Gerät Nr. sowieso eine Unterbrechung anfortert) Ich kann dir z.B nicht genau sagen wieviel Prozesse gerade an welcher Stelle in meinem Programm sich befinden. von vielen kann ichs vermuten (in der Warteschlange ^^) aber genau wissen kann ich das nicht.Naja. Dazu muss man IMO keine Haare spalten. Multithreaded ist auf keinen Fall nicht-deterministisch. Es KANN u.U. nicht-determinsitisch sein, soll es aber auf keinen Fall. Von daher sind einige Deiner Schlussfolgerungen nicht richtig (vermutlich aufgrund falscher Begrifflichkeit). Das Handlungsreisenden-Problem ist beispielsweise nicht-deterministisch, was darauf hinaus läuft, dass es mitsteigender Komplexität mit Algorithmen nicht in einer endlichen Zeit gelöst werden kann. Das nur zur Richtigstellung (nicht zur Haarspalterei).

Gast
2006-06-08, 15:34:47
Blutmaul[/POST]']Ah, so ist das doch garnicht, aber Du brauchst auch NICHTS ausschalten.
Und das ist verdammt angenehm!

Das musste ich mit einem SC-Prozessor bis jetzt auch nie. Was muss man denn abschalten, um mehr Leistung zu haben?

PatkIllA
2006-06-08, 15:35:59
rpm8200[/POST]']Naja. Dazu muss man IMO keine Haare spalten. Multithreaded ist auf keinen Fall nicht-deterministisch. Es KANN u.U. nicht-determinsitisch sein, soll es aber auf keinen Fall. Von daher sind einige Deiner Schlussfolgerungen nicht richtig (vermutlich aufgrund falscher Begrifflichkeit). Das Handlungsreisenden-Problem ist beispielsweise nicht-deterministisch, was darauf hinaus läuft, dass es mitsteigender Komplexität mit Algorithmen nicht in einer endlichen Zeit gelöst werden kann. Das nur zur Richtigstellung (nicht zur Haarspalterei).Das Problem an sich ist sowie weder deterministisch noch nicht deterministisch. Und auch ein Algorithmus mit exponentieller Laufzeit kann deterministisch sein.
Das Problem kann durch Nicht-Determinismus in polynomieller Zeit gelöst werden, auch wenn das mehr theoritischer Natur ist.
Mit Determinismus ist nur gemeint, dass genau reproduzierbar ist, was in welcher Reihenfolge passiert und das ist bei Mutlithreading eben praktisch nicht drin.

rpm8200
2006-06-08, 15:53:49
PatkIllA[/POST]']Das Problem an sich ist sowie weder deterministisch noch nicht deterministisch.Stimme nicht zu. Das Handlungsreisenden Problem ist definitiv nicht deterministisch.
PatkIllA[/POST]']Und auch ein Algorithmus mit exponentieller Laufzeit kann deterministisch sein.Full Ack. (deshalb schrieb ich "...läuft darauf hinaus...")
PatkIllA[/POST]']Das Problem kann durch Nicht-Determinismus in polynomieller Zeit gelöst werden, auch wenn das mehr theoritischer Natur ist.Stimme nicht zu. Gilt nur bis zu 10 (??) Orten, darüber wird es langsam nicht lösbar (wobei nicht lösbar nicht "nicht deterministisch" bedeutet, lösbar ist es trotz nicht deterministischer Problemstellung bis ~10 Orte).
PatkIllA[/POST]']Mit Determinismus ist nur gemeint, dass genau reproduzierbar ist, was in welcher Reihenfolge passiert und das ist bei Mutlithreading eben praktisch nicht drin.Full Ack. Darüber hinaus kann ein Zustand mit einer Bedingung nicht eindeutig in einen einzigen anderen übergehen sondern auch wahlweise in mindestens einen optionalen (ohne eindeutige Zuordnung über eine Bedingung)

Gast
2006-06-08, 16:00:19
huha[/POST]']Ich bin z.B. ein typischer Fall, der SMP benötigt (leider habe ich es nicht X-D), da ich es bevorzuge, viele Dinge gleichzeitig zu machen; Viele Browserfenster sind geöffnet, ich programmiere nebenher und/oder lasse irgendwas rendern (Musik, Texte, Bilder, ...). Mit SMP lassen sich diese Dinge einfach so erledigen, daß man keinen Einschränkungen hinsichtlich der Arbeitsgeschwindigkeit unterliegt, d.h. das System lahmt nicht rum, sobald ich eine anspruchsvolle Aufgabe angehe.

Dafür braucht es kein SMP:

http://img474.imageshack.us/img474/7887/smp1sh.th.jpg (http://img474.imageshack.us/my.php?image=smp1sh.jpg)

Wenn du viele Browserfenster offen hast, brauchst du in erster Linie großen Speicher und kein SMP. Ich habe gerade mal testweise schnell mit "Strg + N" viele Browserfenster hintereinander geöffnet. Die CPU-Last stieg kurzzeitig beim Öffnen der 40 Browserfenster an und sank 5 Sekunden später gleich wieder auf 0 %.

Programmieren ist erstmal nur (Quell-)Text schreiben. Du kompilierst ja nicht die ganze Zeit. Von daher ist auch da kein SMP nötig.

Beim Rendern könnte es anders ausschauen (keine Ahnung, was genau du renderst). Für deine Zwecke dürfte eine Hyper Threading-CPU + 2 GB Speicher aber wohl vollkommen ausreichen. Wobei es bei den Preisen des Pentium D 9xx wohl unsinnig wäre noch eine Hyper Threading-CPU zu kaufen. ;)

PatkIllA
2006-06-08, 16:04:02
rpm8200[/POST]']Stimme nicht zu. Das Handlungsreisenden Problem ist definitiv nicht deterministisch.Der Begriff passt gar nicht zu Problem selbst. Das geht höchstens für eine Lösung.
determinare = bestimmen im Lateinischen

rpm8200[/POST]']Stimme nicht zu. Gilt nur bis zu 10 (??) Orten, darüber wird es langsam nicht lösbar (wobei nicht lösbar nicht "nicht deterministisch" bedeutet, lösbar ist es trotz nicht deterministischer Problemstellung bis ~10 Orte).
Sowas wie "langsam nicht lösbar" gibt es in der theoritischen Informatik nicht.
Das Problem ist immer auch auf einer deterministisch arbeitenden Turingmaschine lösbar, weil zu jeder gegebenen Problemstellung nur eine begrenzte Zahl an möglichen Reisen existiert. Man kann also einfach alle Wege ausprobieren und hat das Problem gelöst.

Blutmaul
2006-06-08, 17:25:56
Gast[/POST]']Das musste ich mit einem SC-Prozessor bis jetzt auch nie. Was muss man denn abschalten, um mehr Leistung zu haben?

Na, allein eine Skype-Konferenz macht bis zu 20% Cpu-Last.

Haben, oder nicht...in Zukunft stellt sich die Frage doch sowieso nicht mehr!

Zugegeben, im Moment ist es durchaus noch ein Luxus den ich mir gönne, aber jetzt bin ich verwöhnt und würde nie mehr zurückgehen wollen...das ist wie mit 2 GB Ram, man braucht es nicht notwendigerweise, aber man will auf keinen Fall zurück, wenn man es erstmal hat. ;)

Bokill
2006-06-08, 17:31:58
beos[/POST]']Hi, ... nachdem ich mir die Conroe Freds und die ersten Tests angeschaut habe ging mir der Satz, der von 6 Monaten überall gesagt wurde durch den Kopf.

"Dual und Multicore sind die Zukunft - da eine normale Singlecore Leistungssteigerung nicht mehr möglich ist" Wer hat das gesagt?
Wer so etwas sagte, hatte vor 6 Monaten komplett ältere Nachrichten komplett ignoriert, dass neben der Multicoregeschichte auch weiterhin an Effizienzsteigerung gearbeitet wird.

Jetzt bringt Intel den conroe - der 15-50% schneller als jeder Athlon64 X2 ist
und wohl 100%-120% schneller als der P4-D. Abwarten, noch sind wir im heissen Benchmarkkrieg mit jeweiligen Referenz-Zucker Benchmarks. Der Core, Core 2 sind aber ziemlich sicher Effizenzgesteigerte CPUs ... keine Frage.

Das führt jedoch die früher gemachte Aussage absurdum - trotzdem schwört jeder auf Dualcore - oder schwärmt von Multicores ... Ist auch kein Gegensatz, zwei parallel rechnenede Kerne sind sicher was feines.

Irgendwie sind wir doch alle von der Industrie übers Ohr gehauen worden - oder findet ihr nicht auch? Nein, definitiv nicht. Es kamen schlicht noch weitere Kriterien dazu. Es hat derzeit den Anschein, dass jede CPU über 100 W Strombedarf einfach nur noch pervers ist.

Für wirklich ganz abartig abgedrehte Einsatzzwecke sind aber nach wie vor auch 100W Monster statthaft (Stichwort NEC SX 8 Vektor CPU). Ist ein Problem erst mal in prima Vektorcode ausgelegt, dann rennt ein NEC SX 8 Allen davon, was man nur in einen Sockel pressen kann.

Der PowerPC 6, der UltraSPARC VI+, der Rock, K8L, Core zeigen ja, dass Multicore mit Effizenzgesteigerten Kernen möglich ist ... und diese CPUs waren schon vor mehr als 6 Monaten angekündigt worden.

MFG Bobo(2006)

Alf@Uni
2006-06-08, 18:08:36
@rpm8200: Kann es sein, das du Komplexität mit nicht-/ determinsmus "verwurstest"? Das sind nämlich 2 paar Schuhe.

Alf@Uni
2006-06-08, 18:25:48
What makes algorithms non-deterministic?

If it uses external state other than the input, such as user input, a global variable, a hardware timer value, a random value, or stored disk data.

If it operates in a way that is timing-sensitive, for example if it has multiple processors writing to the same data at the same time. In this case, the precise order in which each processor writes its data will affect the result.

If a hardware error causes its state to change in an unexpected way.


http://en.wikipedia.org/wiki/Deterministic_algorithm

rpm8200
2006-06-08, 19:43:21
@PatkIllA: Ach herrje. Jetzt muss ich tatsächlich meine Unterlagen dazu raus kramen oder wie? :biggrin: Aktuell hab ich keine Zeit/Lust dazu.
@alf@uni: Lies meine Posts nochmal durch -> ich verwurste nichts mit komplexität (die Lösbarkeit eines Problems bestimmt nicht über deterministisch/ nicht deterministisch (habe das auch schon mal weiter oben geschrieben) -> ich bereue zutiefst die logische Verknüpfung "... was darauf hinaus läuft... " gepostet zu haben, denn so wie es interpretiert wird war das nicht gemeint).
Im übrigen ist die wiki-Erklärung in meinen Augen schon sehr praktisch ausgelegt und ich bin mir nicht ganz sicher, ob es das trifft, was ich zu diesem Thema lernen "durfte" (ist doch sehr theoretisch).

Insgesamt ist das aber OT...

RLZ
2006-06-08, 20:02:36
Gast[/POST]']Programmieren ist erstmal nur (Quell-)Text schreiben. Du kompilierst ja nicht die ganze Zeit. Von daher ist auch da kein SMP nötig.
:|
Schonmal an einem größeren Projekt gearbeitet?
Bei mir gingen allein heute bestimmt knapp 2 Stunden fürs Warten auf den Compiler drauf, obwohl ich an 2 Projekten gleichzeitig gearbeitet habe um die Wartezeiten sinnvoll zu nutzen.

del_4901
2006-06-08, 20:44:22
rpm8200[/POST]']@PatkIllA: Ach herrje. Jetzt muss ich tatsächlich meine Unterlagen dazu raus kramen oder wie? :biggrin: Aktuell hab ich keine Zeit/Lust dazu.
@alf@uni: Lies meine Posts nochmal durch -> ich verwurste nichts mit komplexität (die Lösbarkeit eines Problems bestimmt nicht über deterministisch/ nicht deterministisch (habe das auch schon mal weiter oben geschrieben) -> ich bereue zutiefst die logische Verknüpfung "... was darauf hinaus läuft... " gepostet zu haben, denn so wie es interpretiert wird war das nicht gemeint).
Im übrigen ist die wiki-Erklärung in meinen Augen schon sehr praktisch ausgelegt und ich bin mir nicht ganz sicher, ob es das trifft, was ich zu diesem Thema lernen "durfte" (ist doch sehr theoretisch).

Insgesamt ist das aber OT...

Ich stelle diese Aussage in Farge, die ist nämlich einfach Schwachsinn!
Schonmal was Multithreaded programmiert? ... wohl kaum

Edit: von wegen Theorie die Praxis davon seh ich jeden Tag ... nur weil das Fach so heißt, heißt das noch lange nicht das man es nicht braucht bzw. anwenden kann.

rpm8200[/POST]']Multithreaded ist auf keinen Fall nicht-deterministisch. Es KANN u.U. nicht-determinsitisch sein, soll es aber auf keinen Fall.

rpm8200
2006-06-08, 20:55:07
AlphaTier[/POST]']Ich stelle diese Aussage in Farge, die ist nämlich einfach Schwachsinn!
Schonmal was Multithreaded programmiert? ... wohl kaum
Also tritt mal ein bisschen auf die Bremse bitte. Woher zum Geier willst Du bitte wissen, was ich programmiere und was nicht?
AlphaTier[/POST]']Edit: von wegen Theorie die Praxis davon seh ich jeden Tag ... nur weil das Fach so heißt, heißt das noch lange nicht das man es nicht braucht bzw. anwenden kann.Von was redest Du denn??? Jetzt geh erst mal zum Kühlschrank, pfeiff Dir n Bierchen rein, bring Deinen Blutdruck auf normal und lies nochmal die Posts.

del_4901
2006-06-08, 21:07:15
rpm8200[/POST]']Also tritt mal ein bisschen auf die Bremse bitte. Woher zum Geier willst Du bitte wissen, was ich programmiere und was nicht?


Ganz einfach ... an den wahnwitzigen Vermutungen^^
Und von 10x lesen wirds auch nicht richtiger.

rpm8200
2006-06-08, 21:32:07
Aha. Da hat einer ne tolle Kristallkugel. Ich kann Dir genauso unterstellen, dass Du noch nie was multithreaded programmiert hast wenn Du "täglich" mit nicht-determinismus zu tun hast und täglich damit Probleme hast (btw hast Du den Begriff erstmals falsch verwendet und hier überhaupt erst mal eingestreut).

Wenn Du weiter über das Thema diskutieren willst schlage ich vor Du schreibst mir ne PN (n guter Anfang wäre, wenn Du mir meine "wahnwitzigen Vermutungen" erklären würdest).

del_4901
2006-06-08, 21:33:44
rpm8200[/POST]']Aha. Da hat einer ne tolle Kristallkugel. Ich kann Dir genauso unterstellen, dass Du noch nie was multithreaded programmiert hast wenn Du "täglich" mit nicht-determinismus zu tun hast und täglich damit Probleme hast (btw hast Du den Begriff erstmals falsch verwendet und hier überhaupt erst mal eingestreut).

Wenn Du weiter über das Thema diskutieren willst schlage ich vor Du schreibst mir ne PN (n guter Anfang wäre, wenn Du mir meine "wahnwitzigen Vermutungen" erklären würdest).

Ich hab hier niks falsch verwendet.

rpm8200
2006-06-08, 21:46:50
AlphaTier[/POST]']Wenn man Haare spalten will will kann man mir natürlich nen Strick draus drehen^^ Nichtsequenzielle bzw. parallele Programmierung vllt. der bessere Begriff. Die beiden sind aber auch nichtmehr deterministisch, da man ja irgendwie Zwangsläufig den Zufall mit eingebaut bekommt. (Oder weißt man die Zeitscheibe abläuft ... oder PCI Gerät Nr. sowieso eine Unterbrechung anfortert) Ich kann dir z.B nicht genau sagen wieviel Prozesse gerade an welcher Stelle in meinem Programm sich befinden. von vielen kann ichs vermuten (in der Warteschlange ^^) aber genau wissen kann ich das nicht.Parallele Programmierung ist parallele Programmierung und hat mit nicht-Determinismus erst mal nichts zu tun. Man kann sehr wohl parallel programmieren ohne dass man sofort einen Nicht-Determinismus an der Backe hat. Aber da das alles OT ist, bitte ich Dich alles weitere per PN zu klären, die Sache auf sich beruhen zu lassen oder aber endlich zuzugeben dass dieser (auslösende Post) so nicht korrekt war.

del_4901
2006-06-08, 21:50:18
rpm8200[/POST]']Parallele Programmierung ist parallele Programmierung und hat mit nicht-Determinismus erst mal nichts zu tun. Man kann sehr wohl parallel programmieren ohne dass man sofort einen Nicht-Determinismus an der Backe hat. Aber da das alles OT ist, bitte ich Dich alles weitere per PN zu klären, die Sache auf sich beruhen zu lassen oder aber endlich zuzugeben dass dieser (auslösende Post) so nicht korrekt war.
Dann schreib mir ein Programm wo man damit nicht zu kämpfen hat. Selbst der Patkilla hat gesagt das es nicht geht. Wikipedia sagt das es nicht geht. Ich sage das es nicht geht. Aber du bist ja der Superinformatiker, der von anderen will das Sie sich ihre Fehler eingestehen, aber es selbst nicht kann.

Zurzeit steht es immernoch 3:1 gegen dich.

Senior Sanchez
2006-06-08, 21:54:39
Ich verstehe sowohl dich AlphaTier als auch rpm. Ich bin momentan hin und her gerissen, aber ich persönlich würde auch dazu tendieren dass parallele Programmierung eigentlich nicht zu den nicht-deterministischen Programmiertechniken gehört.

Es wird zwar randomisiert gearbeitet, sprich es ist nicht direkt vorhersagbar, z.B. welcher Thread als nächstes abgearbeitet wird. Allerdings steckt dahinter wohl meistens ein determnistischer Algorithmus, der scheinbar chaotisch einen Zufall erzeugt. Aber er basiert im Grunde trotzdem auf Determinismus.


Btw, wegen einem deterministischen parallelen Programm: Wie wäre es mit kooperativem Multitasking? ;)

del_4901
2006-06-08, 21:56:03
Senior Sanchez[/POST]']
Btw, wegen einem deterministischen parallelen Programm: Wie wäre es mit kooperativem Multitasking? ;)

Läuft nicht parallel ab.


Ein Algo ist entweder deterministisch oder nicht ... misch masch gibs nicht!

Teilalgorithmen von einem nicht-deterministischen Algo können, deterministisch sein. Aber nicht umgekehrt.

Senior Sanchez
2006-06-08, 22:01:03
AlphaTier[/POST]']Läuft nicht parallel ab.


Ein Algo ist entweder deterministisch oder nicht ... misch masch gibs nicht!

Okay, es ist nicht wirklich parallel, das stimmt.

Dann erkläre mir wie normales Multithreading nicht deterministisch sein kann? Wo ist da der echte Zufall?

Meine Darlegung war viel mehr, dass das Verhalten chaotisch wirkt, sprich es nicht-deterministisch erscheint, allerdings ist der zugrunde liegende Algorithmus deterministisch, was natürlich auch von der Implementierung abhängt.

PS: Betrachtet man nun natürlich den nötigen Zufall nicht als Eingabewert, sondern als internen Zustand des Algorithmus, so ist natürlich wieder ein nicht-Determinismus gegeben, da ja nun bei gleichen Eingaben wirklich unterschiedliche Ergebnisse entstehen können. Ich sehe den Zufall allerdings meist auch mit als Eingabewert an, wodurch es aus meiner Sicht eben deterministisch wird.

del_4901
2006-06-08, 22:07:40
Senior Sanchez[/POST]']Okay, es ist nicht wirklich parallel, das stimmt.

Dann erkläre mir wie normales Multithreading nicht deterministisch sein kann? Wo ist da der echte Zufall?


Du kannst nie wissen, wann dir das OS die CPU entzieht. Man kann als Programmierer auh nicht beeinflüssen, wann das OS Events abfeuert (Benutzereingaben ... ander Threads etc.) Nicht umsonnst müssen sogenannte "Critical Sections" vor der Willkür des nicht-determinismus geschützt werden. Wenn das alles nicht so währe könnte ich mir meine Mutexobjekte/Semaphoren spaaren.


Den Zufall kannst du nicht als Eingabewert ansetzen.

Senior Sanchez
2006-06-08, 22:12:07
AlphaTier[/POST]']Du kannst nie wissen, wann dir das OS die CPU entzieht. Man kann als Programmierer auh nicht beeinflüssen, wann das OS Events abfeuert (Benutzereingaben ... ander Threads etc.) Nicht umsonnst müssen sogenannte "Critical Sections" vor der Willkür des nicht-determinismus geschützt werden. Wenn das alles nicht so währe könnte ich mir meine Mutexobjekte/Semaphoren spaaren.

Ja, das stimmt.

Ich habe es ja im meinem PS-Eintrag noch näher spezifiziert und im Grunde ist es ein Verständnisproblem. Im Allgemeinen wirkt es halt nicht-deterministisch, weil der entscheidende Zufall (eben WANN das OS reagiert) keine direkte Eingabe ist. Was ich darlegen wollte ist, dass es aber indirekt irgendwo ne Eingabe ist, weil der Zufallsgenerator braucht ja auch mal nen Seed aus dem er die Werte erzeugen kann und wäre somit ansich deterministsch. Nur habe ich als Programmierer oder Nutzer eben keinen Einfluss darauf.

PS: Es gibt aber ansich noch ne interessante Mischung: Fibers :) So kannste einen Thread noch weiter aufsplitten und dort kooperatives Multitasking realisieren ;) Der Thread ansich wird natürlich wieder multi-threaded vom OS verarbeitet und gescheduled, also preemptiv z.B. via Round Robin. Intern aber läuft er kooperativ ab. :) Das muss ich bei Zeiten mal ausprobieren.

ShadowXX
2006-06-08, 22:18:08
AlphaTier[/POST]']Du kannst nie wissen, wann dir das OS die CPU entzieht. Man kann als Programmierer auh nicht beeinflüssen, wann das OS Events abfeuert (Benutzereingaben ... ander Threads etc.) Nicht umsonnst müssen sogenannte "Critical Sections" vor der Willkür des nicht-determinismus geschützt werden. Wenn das alles nicht so währe könnte ich mir meine Mutexobjekte/Semaphoren spaaren.

Den Zufall kannst du nicht als Eingabewert ansetzen.
Aber machst du deine Programme nicht gerade durch einen MutexObj./Semaphoren wieder vorhersehbar (was ja auch zwindend notwendig ist)?

Ich glaube das rmp genau darauf hinauswollte.....dein eigenes Programm wird durch die von dir gewählten Methoden wieder vorherbestimmbar...es reagiert nicht chaotisch / zufällig.

Senior Sanchez
2006-06-08, 22:20:49
ShadowXX[/POST]']Aber machst du deine Programme nicht gerade durch einen MutexObj./Semaphoren wieder vorhersehbar (was ja auch zwindend notwendig ist)?

Ich glaube das rmp genau darauf hinauswollte.....dein eigenes Programm wird durch die von dir gewählten Methoden wieder vorherbestimmbar...es reagiert nicht chaotisch / zufällig.

Da muss ich wiedersprechen.

Du synchronisierst ja nicht alle Threads. Weil dann kannste dir Threading auch sparen.

Somit laufen auch Threads (quasi)-parallel ab, die nicht synchronisiert werden müssen und das wäre ja wieder nicht-deterministisch, weil du nicht weißt, welcher Thread rankommt.

Ein Sync kommt ja nur wenn du die Datenintegretität gewährleisten musst, aber es greifen eben nicht alle Threads auf die gleichen Daten zu.

del_4901
2006-06-08, 22:33:36
ShadowXX[/POST]']Aber machst du deine Programme nicht gerade durch einen MutexObj./Semaphoren wieder vorhersehbar (was ja auch zwindend notwendig ist)?

Ich glaube das rmp genau darauf hinauswollte.....dein eigenes Programm wird durch die von dir gewählten Methoden wieder vorherbestimmbar...es reagiert nicht chaotisch / zufällig. Ich sorge damit nur das es nicht aus den Bahnen läuft. Ein Großteil heutiger SW ist alles nicht-derministisch. pure deterministische SW findest du sehr sehr selten. Weil die Systemfunktionen schon höchst nicht-deterministisch ablaufen.
An der Uni lernt man nur noch Quark. In meiner theroretischen Informatik Vorlesung kahm das auch so durch, das unsere Informatikwelt eigendl. höchst deterministisch sein muss. Das ist aber eigendlich falsch. Ein Intel x86 ist halt kein finiter Automat^^

@Senior Sanchez: Die Fibers gehn so in die Richtung MicroJobs ... das ist gar nichtmal so dumm. Wenn man auf Performance wert legt. Und genau weiß nach was, was gebraucht wird.


Aber nochmal zu dem Chaotisch ... wie soll ich das erklären. Wenn ich meinen Speicher anhalte und davon einen snapshoot machen, so wird auch wenn ich das genauestens timen kann. niemals gleich aussehen. (Den heap kann man sogar rausnehmen .. nur der Stack ist wichtig) auch nach 1 000 000 Testreihen nicht.

Senior Sanchez
2006-06-08, 22:39:33
Aber warum ist das eigentlich so, AlphaTier?

Woher kommt der Zufall, dass es immer verschieden ist?

del_4901
2006-06-08, 22:46:26
Senior Sanchez[/POST]']Aber warum ist das eigentlich so, AlphaTier?

Woher kommt der Zufall, dass es immer verschieden ist?

Schlag mich tot, das bist erstmal du selbst ... dann 100 Treiber die sich alle dazwischenfunken. PCI Karten die ständig mal Meldung machen. Es liegt halt an der Art wie moderne Multithreaded Betriebssyteme arbeiten.

aevil
2006-06-08, 22:57:20
AlphaTier[/POST]'] Ein Intel x86 ist halt kein finiter Automat^^

DOch, natürlich, sonst wäre er nicht verifizierbar, und also so nicht in der heutigen Komplexität zu bauen.

del_4901
2006-06-08, 23:00:05
aevil[/POST]']DOch, natürlich, sonst wäre er nicht verifizierbar, und also so nicht in der heutigen Komplexität zu bauen.
uhhh Was ist mit Registern ? Die Zustände speichern können ... ist das bei finiten Automaten erlaubt? nein.

Aqualon
2006-06-08, 23:04:08
AlphaTier[/POST]']Ein Großteil heutiger SW ist alles nicht-derministisch.Das hängt wohl stark davon ab, aus welcher Sichtweise du es betrachtest. Wenn man nur das Ergebnis eines Ablaufs innerhalb einer Software betrachtet, ist die meiste Software deterministisch. Wenn du allerdings die Zustände deiner Software zu festen zeitlichen Punkten betrachtest, wird sie nichtdeterministisch sein, weil man das im Normalfall nicht voraussagen kann.

Bei Multithreaded-Software muss der Programmierer dafür sorgen, dass am Ende deterministisch immer dasselbe passiert, also dieselben Eingabeparameter immer zu denselben Ausgabeparametern führen (ausser natürlich man hat Software, die mit Zufallsgeneratoren arbeitet), egal wie die einzelnen Threads ausgeführt worden sind.

Dass die Fehleranfälligkeit zunimmt, ist wohl realistischerweise zu erwarten, wenn die Anzahl an Threads in einem Programm zunimmt. Aber dazu wird es hoffentlich wirksame Toolunterstützung geben, um Multithreadingbedingte Fehler zu vermeiden bzw. einzuschränken.

Aqua

aevil
2006-06-08, 23:07:47
Aqualon[/POST]'] Wenn du allerdings die Zustände deiner Software zu festen zeitlichen Punkten betrachtest, wird sie nichtdeterministisch sein, weil man das im Normalfall nicht voraussagen kann.

Nur Aufgrund mangelnder Daten scheint das nicht-deterministisch, natürlich.
Wenn man alle Daten bezüglich des aktuellen Zustands und alle Eingaben hat, ist es möglich den nächsten Zustand vorrauszusagen. Wäre sonst schwarze Magie.
Moderne Betriebssysteme haben natürlich Unmengen von Code damit man sich nicht um sowas kümmern muss.


uhhh Was ist mit Registern ? Die Zustände speichern können ... ist das bei finiten Automaten erlaubt? nein.

'türlich gibts Automaten die Zustände speichern können. DFA sind immer in einem Zustand.

Senior Sanchez
2006-06-08, 23:21:55
aevil[/POST]']Nur Aufgrund mangelnder Daten scheint das nicht-deterministisch, natürlich.
Wenn man alle Daten bezüglich des aktuellen Zustands und alle Eingaben hat, ist es möglich den nächsten Zustand vorrauszusagen. Wäre sonst schwarze Magie.
Moderne Betriebssysteme haben natürlich Unmengen von Code damit man sich nicht um sowas kümmern muss.


'türlich gibts Automaten die Zustände speichern können. DFA sind immer in einem Zustand.

Das war genau mein Punkt, den ich anmerken wollte.
Nur hast du eben alle Eingabedaten nicht bzw. keinen Einfluss darauf.

del_4901
2006-06-08, 23:24:22
aevil[/POST]']
'türlich gibts Automaten die Zustände speichern können. DFA sind immer in einem Zustand.

Speicher sind nicht erlaubt ... nach Defintion! eine x86 CPU hat ettliche davon, sogar Stacks (FPU) ... also das ist wohl reichlich an den Haaren herbeigezogen.

@Aqualon: wann ist dein "Ende" erreicht? Wenn der Benutzer das X drückt? (höchst nicht-deterministisch)

Die Anzahl der Befehle welche ausgeführt werden um zu diesem Ende zu kommen ändert sich bei geschedulter Software, müssten die nicht immer gleich sein? ... wenn dann müsst ihr alles betrachten, und nicht nur die Rosienen rauspicken ... man kann wenn man will nämlich fast alles deterministisch machen. Jeh nachdem wie man (um-)definiert.

Coda
2006-06-08, 23:31:03
Ist das letztenendes nicht auch scheiß egal?

Fakt ist, dass Multiprozessorprogrammierung um einiges komplexer zu managen ist als normale Programmlogik. Das wird jeder bestätigen der sich damit beschäftigt hat.

Senior Sanchez
2006-06-08, 23:33:48
Coda[/POST]']Ist das letztenendes nicht auch scheiß egal?

Fakt ist, dass Multiprozessorprogrammierung um einiges komplexer zu managen ist als normale Programmlogik. Das wird jeder bestätigen der sich damit beschäftigt hat.

Jo, full ack. Aber es geht hier ums Prinzip ;)

del_4901
2006-06-08, 23:38:02
Coda[/POST]']Ist das letztenendes nicht auch scheiß egal?

Fakt ist, dass Multiprozessorprogrammierung um einiges komplexer zu managen ist als normale Programmlogik. Das wird jeder bestätigen der sich damit beschäftigt hat.

Letztenendes schon ... Wir sind halt beide praktisch veranlagt ... viele Infostudenten wissen nämlich schon gar nicht mehr wie die Praxis funktioniert (auch ich war so ein Kanidat... und ich kenne viele andere). Es soll sogar Informatiker geben die nicht eine Zeile programmiert haben in ihrem ganzen Studium.

del_4901
2006-06-08, 23:40:19
Senior Sanchez[/POST]']Jo, full ack. Aber es geht hier ums Prinzip ;)

Dann ist ja gut ich wollte mich schon "fast" ausklinken, da es nur ums Rechthaben ging, bis du dann auf der Bildfläche erschienen bist. ^^

Aquaschaf
2006-06-08, 23:42:24
AlphaTier[/POST]']Es soll sogar Informatiker geben die nicht eine Zeile programmiert haben in ihrem ganzen Studium.

Die Tage an denen man so durch das Studium kommt sind aber gezählt ;)

aevil
2006-06-08, 23:47:00
AlphaTier[/POST]']Speicher sind nicht erlaubt ... nach Defintion! eine x86 CPU hat ettliche davon, sogar Stacks (FPU) ... also das ist wohl reichlich an den Haaren herbeigezogen.

Wenn ich irgendwann sowas wie einen deterministischen Kellerautomaten an den Haaren herbeiziehe nominiere ich mich selbst für den Turing Award :)

Aqualon
2006-06-08, 23:55:36
AlphaTier[/POST]']@Aqualon: wann ist dein "Ende" erreicht?Unter Ende verstehe ich, wenn ein Teil der Software den man gerade betrachtet, ein Ergebnis liefert. Wenn du eine Methode hast, die etwas berechnet und bei der das Ergebnis nur von den Eingabeparametern abhängt, folgt auf Eingabe A immer Ausgabe B, wenn die Methode deterministisch ist. Welche Befehle ausgeführt wurden, um das Ergebnis zu bekommen und wann diese jeweils ausgeführt worden sind, spielt für das Ergebnis keine Rolle.

Wenn du die Zustände des ganzen Systems während der Ausführung der Methode mitzeichnest, werden die in Abhängigkeit der anderen gerade ablaufenden Software natürlich nahezu nie gleich sein (zu einem bestimmten Zeitpunkt).

Vielleicht sollte man das als funktionalen Determinismus bezeichnen, der auf Basis eines quasi nicht-deterministischen Ablaufs entsteht. Quasi in dem Sinne, dass man unter Verwendung aller Daten über jede Veränderung im System während der Ausführung der Methode, immer noch sagen könnte, in welchem Zustand sich die Methode zu einem bestimmten Zeitpunkt gerade befindet. Praktisch betrachtet ist das wohl unmöglich und der Ablauf bekommt einen nicht-deterministischen Anschein.

Aqua

Coda
2006-06-09, 00:25:35
aevil[/POST]']Wenn ich irgendwann sowas wie einen deterministischen Kellerautomaten an den Haaren herbeiziehe nominiere ich mich selbst für den Turing Award :)
LOL - You made my day :D

AlphaTier[/POST]']Letztenendes schon ... Wir sind halt beide praktisch veranlagt
Viel zu praktisch. Ich bin in Theoretischer Informatik fast eingeschlafen *gähn*

Aber ohne Abschluss kommst ja heute nich weiter ;)

rpm8200
2006-06-09, 08:08:35
Oh Mann. Gut dass ich gestern abgeschaltet habe.

Also erst mal Alphatier: Du reagierst sehr aggressiv hier. Es ging ursprünglich um DualCore, anschliessend um den Begriff Nicht-Determinismus. Mal zu meinem Hintergrund: Ich gebe zu ich bin Student der technischen Informatik (ich denke nicht, dass ich mich dafür schämen muss, auch wenn Du so Nettigkeiten formulierst wie "manche Studenten wissen heute in der Praxis schon nicht mehr " + [insert any bla]). Ich bereite gerade meine Diplomarbeit vor und ich arbeite schon seit Beginn meines Studiums parallel und IMMER fachbezogen (hab nie gekellnert oder an der Tanke ausgeholfen) im Bereich Programmierung (und Hardwareprogrammierung, habe auch schon einen kleinen Kernel programmiert, der mehrere threads synchronisiert und steuert), auch jetzt schreib ich aus der Arbeit (mir schenkt nämlich keiner was). Also bitte unterlasse Deine Anspielungen, dass ich von gar nix Ahnung hab.

Nicht-Determinismus bedeutet, dass ein Automat im Zustand A von äusseren Einflüssen vollkommen unbeeinflusst in entweder den Zustand B oder den Zustand C gehen kann (oder D, E, F, ... ...).

Was Wiki da schreibt, also ehrlich, das sind bestenfalls Symptome von nicht-Determinismus, beschreiben aber nicht das Problem an sich. Nicht-deterministische Programmierung (diesen Begriff hast auch Du mehrmals verwendet) wird IMO in der Art in der es gemeint ist nirgends programmiert und wird wohl frühestens mit Quantenrechnern relevant (das ist jetzt wirklich so eine wilde Vermutung von mir). Wenn man heute etwas programmiert (ich weiss ja nicht was Du machst...???), dann benötigt man Software, die eben nicht sich einmal auf die eine Art entscheidet zu reagieren und einmal auf die andere (und, was noch viel wichtiger ist: Durch diese freie Entscheidung zweier unterschiedlicher Wege auch ein anderes Resultat zu produzieren (bitte komm mir jetz nicht mit ErrorHandlern, die sind nicht gemeint!) -> genau das vermeidet man nämlich in paralleler Programmierung oder Du solltest es zumindest, denn Deine Software liefert sicher keine unvorhersehbaren Resultate, oder doch?).

Parallele Programmierung wirft wie Du schon oft genug angemerkt hast das Problem auf, dass zwei Prozesse aufeinander synchronisiert werden müssen, das hat aber mit nicht-Determinismus (eigentlich) nichts zu tun. Lediglich mit Synchronisation. Klar kann ein Prozess an einen Punkt kommen, an dem er ein Ergebnis benötigt aus einem anderen Prozess (oder thread). Aber das bedeutet nicht, dass der thread (oder der auf den gewartet wird) per random tun kann "was er will". So nach dem Motto: "Oh, jetz hab ich das Ergebnis noch nicht, weil thread A noch auf nen Hardwareinterupt wartet, dann setze ich dessen Ergebnis einfach mal auf nen RandomWert und mach einfach mal weiter".

Und wenn Du das nicht glaubst, dann ist das Deine Sache, ich weiss aber, dass ich damit Recht habe.

Womit ich zugegeben _nicht_ weiss ob ich Recht habe ist das Handlungsreisenden Problem. Ich überlege gerade, warum es nicht-deterministisch sein könnte (war mir gestern noch sicher, jetzt würde ich eher sagen dass das deterministisch ist). Sollte ich die Unterlagen finden kläre ich auf, ob es nun deterministisch ist oder nicht.

So im spekulieren würde ich sagen, es ist deswegen nicht-Deterministisch, da man auch bei 10 Punkten beliebig viele Zielrouten wählen kann. Es macht nicht viel Sinn, eine Route zu wählen, welche 11 Stationen benötigt (da diese sicher nicht die kürzeste ist), aber es spricht nichts dagegen, dass man es dennoch tut. Wenn man dem Prog die Freiheit lässt sich den Weg zu suchen wie es will (ohne weitere Kriterien) ist die Lösung desselben nicht-deterministisch. Zugegeben, das ist weit hergeholt, ich bin mir damit auch nicht wirklich sicher. Wenn ich Zeit/ Lust habe sehe ich nochmal nach.

Ganz sicher bin ich mir mit der Aussage
"parallele Programmierung ist nicht automatisch nicht-deterministisch und sollte es auf keinen Fall sein. Parallele Programmierung wirft lediglich IMMER das Problem der Synchronisation auf".

So. Und jetz muss ich wieder was tun. Ahoi! :biggrin:

aevil
2006-06-09, 08:38:11
rpm8200[/POST]']Womit ich zugegeben _nicht_ weiss ob ich Recht habe ist das Handlungsreisenden Problem. Ich überlege gerade, warum es nicht-deterministisch sein könnte (war mir gestern noch sicher, jetzt würde ich eher sagen dass das deterministisch ist). Sollte ich die Unterlagen finden kläre ich auf, ob es nun deterministisch ist oder nicht.

So im spekulieren würde ich sagen, es ist deswegen nicht-Deterministisch, da man auch bei 10 Punkten beliebig viele Zielrouten wählen kann. Es macht nicht viel Sinn, eine Route zu wählen, welche 11 Stationen benötigt (da diese sicher nicht die kürzeste ist), aber es spricht nichts dagegen, dass man es dennoch tut. Wenn man dem Prog die Freiheit lässt sich den Weg zu suchen wie es will (ohne weitere Kriterien) ist die Lösung desselben nicht-deterministisch. Zugegeben, das ist weit hergeholt, ich bin mir damit auch nicht wirklich sicher. Wenn ich Zeit/ Lust habe sehe ich nochmal nach.



Ich verstehe die Verwednung von deterministisch als Attribut von Problemen nicht, aber das TSP ist lösbar in exponentieller Zeit.
Die Problemdefinition beschreibt ausserdem das jede Stadt nur 1x besucht wird ( sog. Hamiltonkreis ).
Das Problem liegt also in der Komplexitätsklasse NP, und kann durch eine nichtdeterministische Turingmaschine in in Polynominialgelöst werden, d.h. mit Glück gehts schnell, aber sehr wahrscheinlich nicht ;D
Berechenbar ist es jedoch immer.

Bin mir sicher daß du das auch als Ing. Inf gehört hast :wink:

IVN
2006-06-09, 08:59:56
Dieser Thread war friedvoll und ruhig, bis ihr wahnsinnigen Informatiker ihn gehighjackt habt. :tongue:

Schrotti
2006-06-09, 09:23:52
IVN[/POST]']Dieser Thread war friedvoll und ruhig, bis ihr wahnsinnigen Informatiker ihn gehighjackt habt. :tongue:

Sehe ich genauso.

@Topic
Ich fühle mich nicht verschaukelt ganz im Gegenteil.
Schon als ich auf einen P4 mit HT umgestiegen bin, war Windows erheblich smother und das finde ich sehr angenehm.

del_4901
2006-06-09, 12:55:07
@rpm: du verwurstest Komplexität mit nicht determinismus.

z.B gibt es eine Klasse der MonteCarlo Algrorithmen ... die Bewust auch falsche Ergebnisse liefern dürfen. Nach deiner Aussage zufolge. Dürfte es sowas nicht geben. Einige Sortierverfahren basieren auf Montecarlo. AntiAlliazing Techniken können darauf aufbauen. Und nur weil du in BS ein kleines OS geschreiben hast ... heißt das lange nicht das du den Überblick hast. (ich hab BS1 BS2 und BS3 mitgenommen (die letzten beiden fakultativ, in einer mini-Gruppe ... weil die Meißten keinen Bock mehr hatten und unser Prof ein richtiger Grießgram war)) Da muss ich ja in den ganzen 3 Semestern kompletten Unsinn gelernt haben ...

rpm8200
2006-06-09, 13:21:25
Das ist mein allerletzter Post, weils mir auch langsam reicht.

Da nichtdeterministische Algorithmen nicht auf realen Rechnern realisierbar sind und damit recht unanschaulich sind, wird Nichtdeterminismus in Lehrbüchern häufig als "Raten" bezeichnet. D.h. etwa für das Beispiel von oben, dass der nichtdeterministische Algorithmus den Hamiltonkreis "rät" und anschließend verifiziert, dass das, was er geraten hat, wirklich ein Hamiltonkreis ist. Diese Sichtweise führt auf der einen Seite zu einer einfacheren Beschreibung von nichtdeterministischen Algorithmen, auf der anderen Seite aber auch zu Missverständnissen und Fehlinterpretationen, wenn man nicht die Korrektheit wie im Beispiel oben explizit überprüft.

Nachzulesen unter
http://de.wikipedia.org/wiki/Nichtdeterminismus

Nichts anderes habe ich gesagt (wobei das Raten in obigen Zitat meinem "von Zustand A entweder nach Zustand B oder Zustand C gehen" entspricht). Ich verwurste überhaupt nichts. Du kommst immer wieder mit Synchronisationsproblemen daher und denkst es wäre nicht-Determinismus.

Wie gesagt, ich weiss nicht was Du in BS1 und BS2 und BS3 gemacht und gelernt hast und es ist mir inzwischen auch egal. Den Kernel hab ich nicht in der Uni programmiert sondern in der Arbeit (ich sagte bereits, dass ich arbeiten muss um studieren zu können) und er läuft gut, kein Wunder, denn es gibt hier keine Nicht-Deterministischen Probleme (welche sich ohnehin -wie bei Wiki nachzulesen ist- nicht auf gewöhnlichen Rechnern bearbeiten oder darstellen lassen). Es gab aber schon da und dort Synchronisationsprobleme (und damit werfe ich den Vorwurf des Verwurstens letztmalig auf Dich zurück: Du verwurstest Probleme aus Nicht-Determinismus mit Problemen aus Synchronisation).

Du kannst jetzt auch dazu nochmal was schreiben, ich werde mich dazu nicht mehr äussern. Per PN können wir gerne weiter debattieren, wenn Du willst aber hier gehen wir den anderen nur auf die Nerven und mir scheint ich könnte es Dir noch 20 mal erklären und mit Quellen belegen, Du würdest es auch dann nicht glauben.

Trotzdem kein Groll bitteschön.

7michel7
2006-06-09, 14:13:37
hab mit den northwood 3,06 bei erscheinen zugelegt (vorher duron 800er system).
natürlich war alles etwas beschleunigt. im vergleich mit nem kumpel der einen p4 nw 2,66 hat, war mein system deutlich schneller in viedeoberechnungen als seiner (natürlich erst, als angepasste software rauskam).
außerdem fiel mir auf, dass in manchen games ich keine back to desktop (oder nicht so häufig) hatte und keine bluesreens oder neustarts (wir haben die selben games gezockt, windows XP war ungefähr gelich konfiguriert, neueste treiber etc....).
habe mir etwas mehr von den spieleentwickler erhofft, aber leider wurde nicht wirklich für htt optimiert, und jetzt ist DC an der reihe. wenn ich nächstes jahr umsteige auf "VISTA-System", werd ich auf alle fälle auf mehrkernprozessoren setzen, genau wie auf crossfire.
michel

del_4901
2006-06-09, 14:30:05
Do RPM: da sich dei beiden Wikipedia Artikel wiedersprechen, hab ich meinen Hopcroft Ullman aus der Versenkung geholt. Und nochmal nachgelesen. Da im Index nichts spezielles dazu zu finden war hab ich mir das Kapitel 10 genauer angeschaut.
Die frage nach der Lösbarkeit ist nämlich nicht ob ein Agorithmus deterministisch ist oder nicht, sondern ob ein Algortithmus von einer nicht-deterministischen Turingmaschine in polynomialzeit gelöst werden kann oder nicht.

Also hab ich mich weiter auf die Suche begeben und das hier gefunden:
http://de.wikipedia.org/wiki/Determiniertheit_%28Algorithmus%29


Der Begriff Determiniertheit ist vom Begriff Determinismus zu unterscheiden, deterministische Algorithmen sind stets determiniert, es gibt aber nichtdeterministische Algorithmen die determiniert sind.


Diese beiden Aussagen lass für mich den Schluss zu, das es dichtdeterministische Algorithmen gibt, von Problemen welche in P liegen und determiniert sind. Jeder Betriebssystemkernel ist so ein Algorithmus!

aevil
2006-06-09, 15:13:18
AlphaTier[/POST]']Diese beiden Aussagen lass für mich den Schluss zu, das es dichtdeterministische Algorithmen gibt, von Problemen welche in P liegen und determiniert sind. Jeder Betriebssystemkernel ist so ein Algorithmus!

nichtdeterminismus für Probleme in P ist natürlich murks. Eine dTM und damit auch ein Rechner lösen alles in P trivialerweise in Polynom-Zeit.
Zitat wiki:
. Nichtdeterministische Maschinen sind offensichtlich nicht praktisch realisierbar.


Determiniert ist natürlich jeder Prozess, sonst käm ein PC kaum bis zum POST Screen.
Einen Kernel als einen Algorithmus zu bezeichnen ist imho etwas gewagt, mir ist lieber eine Summe von determinierten & deterministischen Prozessen.

Huch, wie kommt die Komplexitätstheorie hier rein ;)

@Coda: ich schlafe eher bei allem anderen ein :/

DavChrFen
2006-06-09, 23:25:01
@rpm8200 und @Alphatier und Rest: Find ich ganz interessant, die Informatikkentnisse vom Grundstudium zu wirderholen. Falls wir hier daruber nicht weiterdiskutieren wollen, können wir ja einen eigenen Thread darüber aufmachen. Und deterministisch =! determiniert. Wenn man das mal klar trennen würe, wäre die Dikussion hier auch etwas nicht-verwirrter.

@Topic: Ich habe seit Sommer03 einen P4 2,6GHz Nothwood mit HT und warte noch immer auf Programme, die mich interessieren, als SingleCore-Anwendung meinen CPU überlasten würden UND multithreatet sind. (Earth2160 z.B. ruckelt bei mir, ist aber nicht multithreated, profitiert also nicht von HT.)
______
Also Hijacking von P4-Nutzer und Seti-Typ (alles ich) *g*.

beos
2006-06-10, 00:42:41
rpm8200[/POST]']Oh Mann. Gut dass ich gestern abgeschaltet habe.

Also erst mal Alphatier: Du reagierst sehr aggressiv hier. Es ging ursprünglich um DualCore, anschliessend um den Begriff Nicht-Determinismus.....

Alphatier reagiert immer aggressiv....seinen wir doch mal ehrlich...was geht in einem menschen vor, der sich alphatier nennt ? :wink:

del_4901
2006-06-10, 01:30:17
beos[/POST]']Alphatier reagiert immer aggressiv....seinen wir doch mal ehrlich...was geht in einem menschen vor, der sich alphatier nennt ? :wink:
Ach Letzteres hat andere Gründe. ^^

Das liegt in meinen Genen, unsere Familie ist so, da muss man lernen sich durchzusetzen, sonnst geht man unter. Das ist eine dumme Angewohnheit, die man nicht so einfach ablegen kann.
Ich sollte vllt. mal einen Gang runterschalten, bevor ich irgendwann Hirnbluten bekommen ... das wolln wir doch alle nicht ^^

derMeister
2006-06-10, 03:08:32
Schrotti[/POST]']Sehe ich genauso.

@Topic
Ich fühle mich nicht verschaukelt ganz im Gegenteil.
Schon als ich auf einen P4 mit HT umgestiegen bin, war Windows erheblich smother und das finde ich sehr angenehm.

Na dann versuchs mal mit x64 Windows. Bin heute den Tag am testen, leider nur auf meiner alten Ata Samsung Platte, aber es geht schon flotter, so vom Gefühl her.

tokugawa
2006-06-10, 03:47:06
AlphaTier[/POST]']Letztenendes schon ... Wir sind halt beide praktisch veranlagt ... viele Infostudenten wissen nämlich schon gar nicht mehr wie die Praxis funktioniert (auch ich war so ein Kanidat... und ich kenne viele andere). Es soll sogar Informatiker geben die nicht eine Zeile programmiert haben in ihrem ganzen Studium.

OK, hab mich etwas zurückgehalten, aber jetzt muß ich doch was dazu sagen.

1. Diese Behauptung mit den Informatikern, die keine Praxis verstehen, holst du eigentlich unbewiesen aus der Luft. Praxis allein ist außerdem ohne die Theorie dahinter sehr sehr oberflächlich. Codermonkey will kein Informatiker sein.

2. Ich find's immer wieder lustig wie jemand, der sich auch für die theoretischen Hintergründe interessiert, mit dem Vorwurf leben muß dass er nicht weiß "wie die Praxis funktioniert". Die Praxis scheint so ein heiliger Graal zu sein, der alles rechtfertigt. Trotzdem, ich hab als Tutor auf der Uni selbst sowie von einigen Tutorkollegen immer wieder mit Leuten zu tun, die irgendwie "aus der Praxis" ("aus der Wirtschaft", was immer) kommen und dann meinen sie stehen über dem Lehrziel und Lehrinhalt selbst, weil Praxis rechtfertigt ja alles und Theorie "müsse man eh nicht lernen weil die in der Praxis irrelevant ist". Das halte ich für Blödsinn, Wissen um die Theorie erweitert den Horizont, den man braucht, um Probleme kreativ lösen zu können, mit neuen Ansätzen, auch in der Praxis.

3. Ob du's glaubst oder nicht, als Informatiker wirst du nicht zum Coding Monkey ausgebildet. Super programmieren können in allen Sprachen ist kein Muß (natürlich sollte man zumindest Ahnung von Programmieren an sich haben). Aber es gibt ja eigentlich nicht die Informatik an sich, sondern die Zweige: Software Engineering, Technische Informatik, Computergraphik/Digitale Bildverarbeitung/Medieninformatik, Medizinische Informatik, Wirtschaftsinformatik, uvm. Da kommt immer was neues dazu. "Programmieren können" ist in ein, zwei von diesen Zweigen nicht das wichtigste.

4. So, zum Topic: gerade in diesem Dingen hilft es sehr wenn man auch etwas von Theoretischer Informatik versteht (ja, so fad und wirr das Zeugs teilweise auch sein mag). Diese theoretischen Dinge kommen öfter vor in der Praxis als man glaubt (z.B. im Compilerbau). Die Diskussion hier ist für einen Quereinsteiger nur mehr verwirrend, weil hier Determinismus mit "Determiniertheit" und Komplexitätstheorie wild vermischt wird. Vielleicht solltet ihr mal die Karten aufdecken und zum Punkt kommen.

5. Also, als Alpha-Tier hab ich dich nicht wahrgenommen. Eigentlich ganz und gar nicht.

BlackBirdSR
2006-06-10, 09:53:40
beos[/POST]']Alphatier reagiert immer aggressiv....seinen wir doch mal ehrlich...was geht in einem menschen vor, der sich alphatier nennt ? :wink:


Sowas muss nicht sein, ok?
Nimm es als Warnung. Wäre schön, wenn solche Sticheleien nicht ausarten.
Dann reagiert Person A auf Person B auf Person C und Person A kontert mit der infinitesimalen Wurzel aus dem Kommentar von Person D multipliziert mit dem cosh(des Winkels zwischen A und C), wobei ich dann den Überblick verliere...
ihr versteht doch oder? ;)

Also schön locker bleiben.
Diskussionen wie immer nicht hier im Thread. Das bedeutet nur noch mehr Arbeit. Und es ist Wochenende und ich hab nen Kater *g*

beos
2006-06-10, 10:51:12
AlphaTier[/POST]']
Ich sollte vllt. mal einen Gang runterschalten, bevor ich irgendwann Hirnbluten bekommen ... das wolln wir doch alle nicht ^^

Auf keinen Fall - schliesslich sind Deine Posts vom Inhalt her fast immer sehr interessant !

Senior Sanchez
2006-06-11, 21:17:25
Ich kann ja mal ne interessante Anwendung für Dual-Core liefern :D

Meiner einer hat fürn BWinf nen Programm geschrieben, dass die Fifa-WM n mal simulieren kann.

Dazu benutzt es eine Simulationsfunktion, die sowohl vom "Zufall", von den Mannschaftsstärken als auch von 7 verschiedenen Parametern abhängt (diese sind zur Gewichtung von Zufall und Stärke, zur Korrektur von Werten etc. gedacht).

Da es nicht einfach ist, diese Funktion richtig zu kalibrieren, sodass sie gute Ergebnisse liefert, habe ich auch noch eine Optimierung per genetischem Algorithmus eingebaut. Diese Optimierung nutzt die Spiele eines älteren Turniers (z.B. der WM 2002) und die damals aktuelle FIFA-Weltrangliste. Anschließend versucht nun dieser Algorithmus die Formel mithilfe der Genetik zu optimieren, sodass sie dieses Turnier möglichst gut simulieren kann und unter Annahme das WM-Turniere immer eine ähnliche Charakteristik haben, auch die aktuelle FIFA WM gut simulieren kann.

Wo jetzt aber Dual-Core ins Spiel kommt ;): Diese Optimierung ist zwar einfach genial, aber hat auch den Nachteil der genetischen Algorithmen: Es ist eigentlich ziemlich lahm. Da man dem Nutzer ja nicht zumuten kann, Minuten oder Stunden auf ne Optimierung zu warten, habe ich das ganze als Extra-Thread designed. Dieser läuft nebenher und ohne äußeren Einfluss auch unendlich lang. Während der Nutzer nun mit dem Programm arbeitet, läuft der Thread ständig im Hintergrund und optimiert was das Zeug hält.

Auf Arbeit habe ich mal den Test gemacht: Ich sitze dort an nem Laptop mit 1.6 Ghz Pentium M und ohne aktivierte Optimierung (und somit ohne laufenden Extra-Thread) schafft er etwa 600-700 Fifa-WM Turniere pro Sekunde zu simulieren.

Aktiviert man dagegen den Thread, der per Default auf Idle-Prio läuft (!), so surrt nach kurzer Zeit der Lüfter relativ laut und die Simulationsrate sinkt auf vllt 330 Turniere pro Sekunde!

Würde man dagegen diesen Thread auf einem Extra-Core ausführen, so könnte man diesen auf Max-Priorität setzen, er würde wahnsinnig schnell optimieren, aber der das Hauptprogramm würde weiterhin 600-700 WM-Turniere pro Sekunde simulieren können :) Da ich aber keinen DC Rechner zur Verfügung habe, kann ich das schlecht beweisen ;)

del_4901
2006-06-11, 21:40:44
Das ist ja alles ganz interessant, aber wer gewinnt den nun? ^^

Senior Sanchez
2006-06-11, 21:47:00
AlphaTier[/POST]']Das ist ja alles ganz interessant, aber wer gewinnt den nun? ^^

Das war mit aktivierter Formel-Optimierung, Heimvorteil für Deutschland und aktivierter adaptiver Stärkregulierung ;)

http://img472.imageshack.us/img472/1517/tempbild5vr.th.jpg (http://img472.imageshack.us/my.php?image=tempbild5vr.jpg)

PS: Über das torreichste Spiel kann man sich schon wundern ;) Aber man sollte bedenken dass 6000 Turniere simuliert wurden und das umfasst nen Zeitraum von mal gerade eben 24.000 Jahren ;) Ich denke da ist es durchaus möglich, dass es mal so ein Spiel gibt.

del_4901
2006-06-11, 21:48:56
Senior Sanchez[/POST]']Das war mit aktivierter Formel-Optimierung, Heimvorteil für Deutschland und aktivierter adaptiver Stärkregulierung ;)

http://img472.imageshack.us/img472/1517/tempbild5vr.th.jpg (http://img472.imageshack.us/my.php?image=tempbild5vr.jpg)

naja hast du schonmal 69 Tore in einem Spiel gesehen ... ist das von der Zeit her überhaupt möglich?

Senior Sanchez
2006-06-11, 21:59:51
AlphaTier[/POST]']naja hast du schonmal 69 Tore in einem Spiel gesehen ... ist das von der Zeit her überhaupt möglich?

Natürlich ist das möglich.

Aber das war auch nen Elfmeterschießen ;)

Inner regulären Spielzeit fallen solche Toranzahlen nicht.

PS: Afair war das torreichste Elfmeterschießen bisher 20:19. Naja, und 24.000 Jahre ist ne lange Zeit ;)

aevil
2006-06-11, 23:16:37
Bundesligaberechnungen sind auch klasse :biggrin:
Leider ist das Meisterschaftsproblem mit der 3 Punkte-Regelung NP-Vollständig geworden, Schweinerei ;D

Schrotti
2006-06-11, 23:34:59
derMeister[/POST]']Na dann versuchs mal mit x64 Windows. Bin heute den Tag am testen, leider nur auf meiner alten Ata Samsung Platte, aber es geht schon flotter, so vom Gefühl her.

Hab ja keinen Pentium 4 mehr sondern einen Pentium D und der rennt unter Vista 64bit sehr gut.

Foxbat
2006-06-12, 13:13:54
und die niederländer habens es wieder nicht geschafft ;D

ich hätte da eine Frage:

mit Vanderpool bzw Pacifika kann man ja 2 OS rennen lassen (wie man das nutzen soll versteh ich bis jetzt nicht ganz aber egal). Wenn man also eine Dual-Core Rechner hat könnte man ja einem Core ein OS und dem anderen das andere OS zuweisen oder? Das müsste doch den Performance-Schub schlechthin bringen --> 1.OS zB Videoschnitt, 2.OS Spielen, aber gleichzeitig ;D

mfg

stickedy
2006-06-12, 13:19:33
@Senior Sanchez
Kannst du das Programm vielleicht mal zum download anbieten? Das härt sich echt interessant an!

Senior Sanchez
2006-06-12, 16:22:38
stickedy[/POST]']@Senior Sanchez
Kannst du das Programm vielleicht mal zum download anbieten? Das härt sich echt interessant an!

Hmm, hat jemand webspace?

Da müsste ich wohl auch noch ne Anleitung schreiben *gg*
AAAAAAAAAAHHHHHHHHHHHHHHHH.

PS: Es hat auch noch ein paar kleine Macken, aber ansonsten isses ganz brauchbar.

san.salvador
2006-06-12, 16:56:49
Wie groß isses denn? Du kannsts ja einfach auf rapidshare uppen.

Senior Sanchez
2006-06-12, 17:05:34
san.salvador[/POST]']Wie groß isses denn? Du kannsts ja einfach auf rapidshare uppen.

Na ohne Anleitung bisher und mit nen paar beispiel dateien isses ~ 1 MB.

Gast
2006-06-12, 17:26:44
Mehrere Cores machen auf jeden Fall Sinn, es ist eben ein anderer Ansatz.

Noch dazu steht dem nichts im Wege... denn langfristig wird es sowohl mehr Cores als auch leistungsfähigere Cores geben.

Das sieht man schon am Conroe... ein 3,2 GHz Conroe als Dual Core wird wohl etwa so schnell sein, wie ein P4 mit 5 GHz und nun überlegt mal, wie schnell ein P4 als SingleCore sein müsste um diese Leistung zu erreichen... also im Prinzip geht es viel schneller vorran, als damals.
Momentan fehlt noch die Software dafür, aber auch die wird kommen...

Dann gibt es nächstes Jahr schon Quad Core, die zwar erstmal niedriger getaktet werden, aber mit besserem Fertigungsprozess widerum an Takt zulegen und auch heutige Dual Cores bei der Leistung pro Core überholen werden.

Das gute an der Sache ist, das sich die Leistung viel schneller erhöht.
Was ist schon ein Sprung von 3600 auf 3800 MHz im Vergleich zu 2x3200 auf 4x2800?

Jedenfalls sind die nächsten Jahre erstmal gesichert, denn der 45nm und 32nm Fertigungsprozess scheint problemlos möglich, damit wären sicherlich Quad Cores möglich, die mehr als doppelt so schnell sind, als heutige Prozessoren.
Wie es danach weiter geht, mag ich nicht beurteilen, da bis dahin sicherlich auch die Technik weiter vorrangeschritten ist und Sachen möglich sind, an die heute keiner glaubt.

Davon abgesehen, sind mehrere Cores nicht nur für Spiele gut, zum eignen kann man sowas immer gebrauchen.
Langfristig wirds wohl darauf hinaus laufen, das jede "Komponente" eines Programms einen eigenen Core erhalten wird oder das z.B. in Zukunft mehrere Betriebssystem gleichzeitig laufen, unabhängig voneinander, weil das beispielweise auch die Sicherheit und Stabilität erhöhen kann.

Die Zukunft ist ziemlich ungewiß, denn wer dachte vor 10 Jahren schon daran, das wir bald mal sowas wie einen Quad Core als selbstverständlich ansehen?

Crazy_Chris
2006-06-12, 17:44:54
Gast[/POST]']
Jedenfalls sind die nächsten Jahre erstmal gesichert, denn der 45nm und 32nm Fertigungsprozess scheint problemlos möglich, damit wären sicherlich Quad Cores möglich, die mehr als doppelt so schnell sind, als heutige Prozessoren.


Das Problem ist doch das diese Dual,Quad u.s.w CPUs eben in vielen Fällen nicht schneller sind da ganz einfach die Anwendungen fehlen. Außerdem lassen sich viele Probleme eben nicht parallelisieren. :redface: Da nützen dir auch 256 Cores nichts. Der Aufwand für Multithreadanwendungen ist außerdem sehr viel größer. Hast du schonmal eine Anwendung debuggt die mit mehr als 2 Threads arbeitet? Spaß macht das nicht gerade. :|

Gast
2006-06-12, 17:49:45
Crazy_Chris[/POST]']Das Problem ist doch das diese Dual,Quad u.s.w CPUs eben in vielen Fällen nicht schneller sind da ganz einfach die Anwendungen fehlen.

Das ist eine Momentaufnahme und trifft nicht auf die Zukunft zu.
Die meisten Anwendungen lassen sich sehr wohl paralelllisieren, doch das wird noch einige Zeit dauern, bis jeder Programmierer es begriffen hat.

Außerdem wird auch der Takt steigen, nicht nur die Anzahl der Cores.
Das wird von vielen Leuten vergessen, guckt doch mal aus dem Fenster... ;)

Ein Dual Core Conroe mit 3,2 GHz wird so schnell sein, wie ein ~P4 5 GHz oder noch schneller, er hat aber schon zwei Cores.
Die ersten Quad Cores werden Taktraten von vielleicht 2,4 GHz aufweisen, aber durch verbesserte Fertigungsverfahren auch höhere Taktraten erreichen... 4x3,6 GHz wären denkbar und schon sind alle Cores schon wieder ein tick schneller, als heutige Dual oder Single Cores, somit werden auch Anwendungen davon profitieren, die nicht alle Cores ausnutzen können.

Oder glaubt hier irgendjemand ernsthaft, das ein *einzelner* Core in 10 Jahren noch genauso langsam sein wird, wie heutige? Nicht wirklich, oder?

FlashBFE
2006-06-12, 18:16:48
Gast[/POST]']Das ist eine Momentaufnahme und trifft nicht auf die Zukunft zu.
Die meisten Anwendungen lassen sich sehr wohl paralelllisieren, doch das wird noch einige Zeit dauern, bis jeder Programmierer es begriffen hat.

Und manche Leute scheinen einfach nicht zu begreifen, dass es unabhängig vom Können des Programmierers einen riesen Zeitaufwand bedeutet, sowas zu programmieren.

Wenn ich schon Delegaten und Invokes sehe, wird mir schlecht :D. Nee Spaß beiseite: Man hat einfach nicht ewig Zeit ein perfektes Programm abzuliefern. Bei mir gehts auch nach dem Motto: Hauptsache erstmal die Funktionalität eingebaut, optimiert wird später. Was willst du denn sagen, wenn dein Chef kurz vor Terminende vorbeikommt und wissen will, wie weit du schon bist? "Ja, also ich hab schon 10 Threads vorbereitet, aber laufen tuts trotzdem nicht."

PatkIllA
2006-06-12, 18:22:13
Mit ein bisschen Erfahrung ist das aber auch kein Ding der Unmöglichkeit. Ich denke, dass da auch noch ein paar Tools zur Unterstützung hinzukommen. Grade Debuggen kann ja auch lustig werden, wenn die Reihenfolge sich mal flink bei jedem Durchlauf ändert.
Bei den GUIs gibt es das doch auch schon, dass Eventhandling und Darstellung in extra Threads ablaufen, ohne das du groß was tun musst.

Gast
2006-06-12, 18:47:41
FlashBFE[/POST]']Und manche Leute scheinen einfach nicht zu begreifen, dass es unabhängig vom Können des Programmierers einen riesen Zeitaufwand bedeutet, sowas zu programmieren.

Na und? Langfristig haben eben diese Programmierer keine Wahl, als diesen Weg zu gehen, denn einen >20 GHz Single Core Prozessor wird es auf absehbare Zeit nicht geben.

FlashBFE
2006-06-12, 18:47:53
PatkIllA[/POST]']Mit ein bisschen Erfahrung ist das aber auch kein Ding der Unmöglichkeit. Ich denke, dass da auch noch ein paar Tools zur Unterstützung hinzukommen. Grade Debuggen kann ja auch lustig werden, wenn die Reihenfolge sich mal flink bei jedem Durchlauf ändert.
Bei den GUIs gibt es das doch auch schon, dass Eventhandling und Darstellung in extra Threads ablaufen, ohne das du groß was tun musst.

Genau und das muss stark weiterentwickelt werden. Die Entwicklungsumgebungen und Compiler müssen dem Programmierer soviel Arbeit wie möglich abnehmen, sodass der sich nurnoch um den Zweck des Programms kümmert und nichtmehr wie er am günstigsten den Zweck implementiert. So könnten Compiler z.B. automatisch erkennen, wenn ne arbeitsaufwendige Funktion aufgerufen wird, die mit dem Rest des Programms nicht interagiert und diese in einen eigenen Thread verpacken.

.NET 2.0 geht auch schon in die richtige Richtung und bietet beispielsweise die Klasse Backgroundworker an, die total einfach zu handhaben ist und bei der sich der Programmierer keine Gedanken um die Threadsicherheit machen muss. Die Klasse kapselt "einfach" einen Thread und wird mit Ereignissen gesteuert. Leider mangelt es da aber noch an Flexibilität, denn vom Hauptthread aus kann man dem Backgroundworker keine Werte mehr übergeben, wenn der erstmal läuft. Das wäre zwar schlecht für die Performance, aber man könnte dann richtig was damit anfangen. Sowas muss noch ausgebaut werden.

Gast
2006-06-13, 11:48:02
Ulukay[/POST]']3. mit einem dualcore hast du die doppelte rechenkapazität - toll wenn ein neuer cpu dann grandiose 20% rausholt ;)

@Ulukay, ich bin noch nicht so lange hier am mitlesen und kenne dich daher nicht so gut. Also meine Frage. Ist deine Aussage jetzt wirklich ein Scherz oder einfach nur Unwissenheit in bezug auf Multiprocessor-Systemen?

Gast
2006-06-13, 11:55:46
Gast[/POST]']@Ulukay, ich bin noch nicht so lange hier am mitlesen und kenne dich daher nicht so gut. Also meine Frage. Ist deine Aussage jetzt wirklich ein Scherz oder einfach nur Unwissenheit in bezug auf Multiprocessor-Systemen?

schrub er "singlethread-leistung"? oder "game-leistung"? wenn du einen server mit ein paar tausend threads hast, ist ein dualcore nämlich genau 2 singlecores wert. dass die meisten consumer-einzelprogramme singlethreaded sind hat nix mit der tatsächlichen leistung des rechners zu tun.

Gast
2006-06-13, 12:50:51
Gast[/POST]']schrub er "singlethread-leistung"? oder "game-leistung"? wenn du einen server mit ein paar tausend threads hast, ist ein dualcore nämlich genau 2 singlecores wert. dass die meisten consumer-einzelprogramme singlethreaded sind hat nix mit der tatsächlichen leistung des rechners zu tun.

Entschuldige bitte, aber ist es nicht egal, ober er "singlethread-leistung" oder "game-leistung" geschrieben hat? Und was hat das mit seiner Aussage zu tun. Die Messungen bezogen sich doch nur auf die single threaded Leistung. Ob Multi-Core oder nicht, spielt dabei doch überhaupt keine Rolle.

Bei Multi-Core geht es doch vielmehr darum, eine Multi-Threaded Anwendung schneller zu machen. Oder bei mehreren laufenden Prozessen, die CPU Kapazitäten, besser zu verteilen. Kommt noch die Bedienbarkeit eines Systems, bzw. die (fast) immer vorhandene Reaktion auf Benutzteraktion hinzu. Wer jemals schonmal mit 2 oder mehr CPUs in einem System gearbeitet hat, wird diesen Vorteil nicht mehr missen wollen.

Das Ganze hat einen winzigen Nachteil. Es ist nicht mehr so leicht erkennbar, wenn ein Prozess eine CPU zu 100% auslastet, da durch die andere CPU, das System immer reagiert. D.h. man sollte eventuell einmal mehr, auf die CPU-Auslastung achten.

Ich will auf jeden Fall eine Multi-Core CPU haben. Das ist mir sogar wichtiger, als die Single-Threaded-Leistung einer CPU.

Gast
2006-06-13, 20:45:03
Könnte mal jemand von den Gurus, diesen Artikel in einfachere Worte fassen? :)
http://www.computerbase.de/news/allgemein/forschung/2006/juni/intel_tri-gate-transistor/

Intels Forschungsabteilung gelang eine bedeutende Weiterentwicklung bei neuartigen Transistoren. Diese so genannten Tri-Gate-Transistoren sollen sowohl die Leistungsfähigkeit als auch die Energieeffizienz von zukünftigen Mikroprozessoren steigern.

Im Vergleich zu heutigen Transistoren mit 65nm-Strukturen weisen die weiterentwickelten, integrierten Tri-Gate-Transistoren mit High-k-Gate-Dielektrika und Strained Silizium folgende Eigenschaften auf: Die um 35 Prozent geringere Schaltleistung (Switching Power) erlaubt einen 45 Prozent höheren Steuerstrom (Drive Current/Switching Speed) für einen schnelleren Einschaltvorgang und damit höhere Taktfrequenzen oder um den Faktor 50 geringere Ströme im ausgeschalteten Zustand (Off-Current) für niedrigen Stromverbrauch.

Was heißt zum Beispiel im ausgeschalteten Zustand? Idle?

Außerdem klingt das so, das Intel dieses Verfahren so lange aufschieben will, wie es nur geht. Welchen Grund hat das? Ist es momentan noch zu teuer?

Jedenfalls scheint das Ende noch nicht erreicht zu sein:
http://pics.computerbase.de/1/4/7/8/8/1_m.jpg

22nm... damit sollten Quad Core Prozessoren mit 5 GHz locker machbar sein und wer weiß, wie weit die noch gehen können. :)

Bokill
2006-06-13, 21:18:50
Gast[/POST]'] ... Was heißt zum Beispiel im ausgeschalteten Zustand? Idle? Das bedeutet, dass von der Source (Quelle an dem die Spannung anliegt) über das Gate zum Drain ([Strom] Abfluss, an dem das Potenzial anliegt) ein sehr geringer Elektronen/Loch-Strom fliesst.

Digitale Schaltungen mit einem Transistor definieren "An" erst ab einem bestimmten Stromfluss, bzw. erst ab einer bestimmten Sollspannung ist der Transistor an.

Nochmal: Es geht um die einzelnen Transistoren, nicht um eine digitale Schaltung die auf idle gestellt ist.

Außerdem klingt das so, das Intel dieses Verfahren so lange aufschieben will, wie es nur geht. Welchen Grund hat das? Ist es momentan noch zu teuer? Das wesentliche ist, dass an sich unvereinbares vereint ist.

Die um 35 Prozent geringere Schaltleistung (Switching Power) Das ist gut, dass bei geringerer Spannung dennoch ein hoherer Steuerstrom durchgeschaltet wird.

Es hätte auch sein können, dass nur ein geringfügig höherer Strom duchgeschaltet wird.

erlaubt einen 45 Prozent höheren Steuerstrom (Drive Current/Switching Speed) für einen schnelleren Einschaltvorgang und damit höhere Taktfrequenzen, oder um den Faktor 50 geringere Ströme im ausgeschalteten Zustand (Off-Current) für niedrigen Stromverbrauch. Stichwort Leckströme. Offensichtlich kann mit einem Trigate auch der Leckstrom besonders deutlich im Zaum gehalten werden.

Man erinnere sich, Intel ist so ziemlich auf die Fresse damit gefallen (und insgesamt so die ganze Halbleiterindustrie), da ab 130 nm immer stärker die Klagen von der Industrie kamen, dass deutlich zu hohe Leckströme die üblichen Designs ausbremsten.

Trigates sind aber keine exklusive Intel Idee, da ist so ziemlich jeder dran, wie auch bei High K, Low K, Metallgates, Siliziden etc..

Die Meldung von Intel besagt: "WIR könnens auch und nun haben wir hoffentlich mit den Trigates die verka**ten Leckströme im Griff". ... aber solche Pressemeldungen werden wir wohl niemals lesen :D.

MFG Bobo(2006)

Gast
2006-06-16, 16:07:09
Egal was da im Einzelnen im Bereich Multi-Core-CPU´s passieren wird in Zukunft. Es gibt Ausgaben, die physikalisch bedingt nicht parallelisierbar sind. Das wissen die Hersteller und werden auch in Zukunft an den einzelnen Core´s immer weiter optimieren.

Man muss zwischen der Entwicklung auf dem einzelnen Core und Multi-Core unterscheiden. Und doch sind sie voneinander abhängig. Bspw. Performancesteigerungen auf einem Core beeinflussen natürlich hierauf basierende Multicore-CPU´s. Umgekehrt (und das ist komisch) kann der Cachezugriff für Multicore-CPU´s optimiert werden, was Einfluß auf einen Core haben kann. Siehe 2Lev.-Cache des Conroe. Auch aufgrund der Multicoretauglichkeit hat man am exorbitanten Stromverbrauch eines Cores gearbeitet.

Wie Intel das mit dem Conroe mit der dynamischen Cachegrößenzuordnung für die beiden Cores gelöst hat weiß ich nicht? Man kann auch nicht sagen, ob die einzelnen Cores voneinander "wissen", oder ob eine Managementschicht über diesen wacht und diese Arbeit erledigt?

Fakt ist, daß die Entwicklungen in der eigentlichen Architektur und Multi-Core zusammenlaufen werden und untereinander Informationen austauschen werden. Das ändert aber nichts an der Tatsache, daß gewisse Aufgaben nicht zu verteilen sind.

beos
2006-06-26, 20:02:32
Leider ist der Fred zu einer "Ich brauch unbedingt Dualcore" Monotonie geworden.

Deswegen hier nochmal ein paar Beispiele:

IDF 2003 News:

Demnach wird es nach dem Prescott, der im Laufe des Jahres 2004 auf 5,20 GHz klettern soll, den ebenfalls in 90-nm-Technik gebauten Tejas geben. Der passende System Bus erreicht dann (mit DDR II?) FSB1066, die CPU selbst soll im Jahre 2005 bis über 9 GHz klettern. Danach ist -- laut Magee -- der 65-nm-Nehalem an der Reihe, um die 10-GHz-Grenze zu durchstoßen. Das wird Intel auf dem IDF in dieser Ausführlichkeit wohl nicht diskutieren wollen.

Quelle: http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/34633&words=dual%20Core%20Zukunft%20Dual




IDF 2004 - kein Wort mehr zu hohen Taktraten - DC Ankündigungen überall

Dual-Core für Desktops und Notebooks

http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/50785&words=IDF%202004


Stattdessen:

Um die Performance weiter zu steigern, setzt Intel in Zukunft auf die Integration von immer mehr Recheneinheiten auf einem Die. 2005 will Intel mit "Smithfield" den ersten Dual-Core-Desktop-Chip auf den Markt bringen, eine unter dem Codenamen "Jona" entwickelte Notebook-CPU soll Ende 2005 verfügbar sein, entsprechend ausgestattete Notebooks wohl aber erst Anfang 2006.

Quelle: http://www.zdnet.de/news/hardware/0,39023109,39128749,00.htm

crusader4
2006-06-26, 22:42:56
News, die älter als ein halbes Jahr sind, haben in der Halbleiterbranche keinen Wert. Dazu entwickelt sich das Geschäft zu schnell.

Taktraten steigern ist mit Problemen verbunden. Mehr Takt bedeutet mehr Verlustleistung, außerdem gibt es Grenzen für den Takt auf einem bestimmten Herstellungsprozeß (z.B. Umladung von Kapazitäten). Da ist einfach mal irgendwann Ende. Zwei niedriger getaktete Kerne sind problemloser herstellbar. Man verlagert die Probleme halt auf die Softwareseite, die Multithreaded programmiert werden muß. Dieser Weg ist momentan offensichtlich der wirtschaftlichere. Mit Fortschritten bei der Fertigungstechnologie werden uns in Zukunft vielleicht auch wieder große Taktraten beschert.

sloth9
2006-06-27, 00:05:30
Gast[/POST]']
[...]
Multi-Core-CPU´s
[...]
Core´s
[...]
Multicore-CPU´s
[...]
Multicore-CPU´s
[...]


Ein Akut ist kein Apostroph, welcher hier sowieso falsch gesetzt wäre.

http://www.deppenapostroph.de

http://de.wikipedia.org/wiki/Akut

http://de.wikipedia.org/wiki/Apostroph

BUDDY123
2006-06-28, 23:03:42
hallo, ich denke das dualcore habe den 4200+ und multicore für die neue spielegeneration
schon irgentwo- und wie wichtig sein werden.
ich bin begeistert von meinem 4200+ dual core und möchte ihn nicht missen.