Archiv verlassen und diese Seite im Standarddesign anzeigen : Haben wir in 5 Jahren alle 1000 Watt Netzteile?
paul.muad.dib
2005-08-01, 10:32:26
Wenn man sich den Stromverbrauch so ansieht, könnte man das ja fast annehmen. Dual-Core war nochmal ein Sprung im Stromverbrauch, 4-Kern CPUs dürften wohl noch mal deutlich mehr Leistung ziehen. Über die Entwicklung bei GPUs braucht ja auch nicht mehr viel gesagt werden. Klar bringen die Shrinks Einsparungen aber der LEistungshunger steigt schneller.
Andererseits ist ja auch irgendwann mal eine Schmerzgrenze erreicht. Was ist die Lösung? Haben wir bald nur noch Notebokks bzw. Notebook-Technik? Oder gibt es noch andere, bisher ungenutze Maßnamen, um den Stromverbrauch zu senken?
AnarchX
2005-08-01, 10:38:53
Dual-Core war nochmal ein Sprung im Stromverbrauc
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
Avalox
2005-08-01, 10:44:51
Ich denke, der Ansatz mit den starken Netzteilen ist nicht falsch.
Die elektrische Leistungsaufnahme wird ohne jeden Zweifel noch kräftig ansteigen. Andererseits wird es aber immer mehr eine Spitzenverbrauchsleistung und damit immer mehr ein theoretischer Wert.
Man wird den HomePC irgendwann nie mit voller Rechenleistung beaufschlagen. Weil keine Software die das System allein überhaupt voll ausnutzen kann.
Intelligente Energiesparmassnahmen, werden einzelne Cores deaktivieren, unterschiedlich Takten. Jeden Core mit einer eigenen angepassten Spannung betreiben, etc.
Außerdem wird der HomePC eine Menge anderer Geräte im Haushalt ablösen. Von der Stereoanlage über den DVD Player, den Festplatten Recorder. Aber auch das Telefon usw. usw. Diese Geräte brauchen heute auch Strom.
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
Das ist doch wohl ein Widerspruch in sich selbst. Natürlich braucht ein DualCore immer deutlich mehr Energie als der vergleichbare SingleCore. Wenn auch bei AMD die Situation so ist, dass die DualCore CPUs die modernsten sind und damit natürlich führend bei den Innovationen. Ein SingleCore identischer Fertigung würde natürlich weniger Strom benötigen, dafür natürlich auch weniger Rechenleistung bieten.
ShadowXX
2005-08-01, 10:46:54
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
Der X2 4800+ verbraucht sogar weniger als mein 3800+ (ebenfalls 2400MHz) Newcastle.
Avalox
2005-08-01, 10:50:29
Ja, Fortschritt.
Mit den 25W eines MT-44, kommt der A64 X2 4800+ aber auch nicht aus.
der 4800+ hat ungefähr 6-8 mal mehr rechenleistung wie ein Thunderbird 1400C
der thunderbird verbrauchte aber ca 84 watt der 4800+ 64 watt
InsaneDruid
2005-08-01, 17:52:05
Seh ich nicht so kommen. Wenn man sich ansieht das ein GUTES (!) 300er heute noch bis auf wenige Einzelfälle (SLI + PIV) locker ausreicht, und das auch die CPUs im Verbrauch wieder rückläufig sind, so kann man davon ausgehen das das Verbrauchsniveau nicht so kritisch steigt.
Wenn man 1000 Watt NTs wirklich bräuchte, so müsste man auch diese 1000 Watt mit irgendwas wegkühlen, und ich sehe nicht das die Anwender in der breiten Masse bereit sind Leistungen im KW Bereich zu akzeptieren.
Bokill
2005-08-01, 18:30:39
Etwas zu spät dieses Thema ...
Intel forciert die Pentium M Familie in der Zukunft, der Pentium 4 hingegen entschläft langfristig am Markt.
Dual-Cores verbrauchen zwar mehr als Einzel-CPUs mit Einzelkernen, aber offensichtlich sind die Hersteller (auch) in der Zukunft nicht mehr bereit wesentlich über 100 W CPU-Maximalverbrauch zu gehen.
Vom Takt her könnte der Pentium 4 deutlich höher als 4 GHz. Die Grenzen sind aber marketingbedingt.
Zum einen ist nun bei dem Verbraucher angekommen, dass der Pentium 4 vergleichsweise viel Strom verschlingt und somit zu viel Wärme im Rechner freisetzt.
Zum anderen ist Takt nach wie vor ein Verkaufsargument, da kommt es nicht mehr so gut, wenn der Pentium 4 deutlich mehr Takt hätte als Einzelkern gegeüber seinen Dual-Core-Brüdern, sowie der zukünftig wachsenden Pentium M Familie.
Überspitzt könnte ich da mir eher die Gegenfrage vorstellen: "Zurück zu den Wurzeln. Haben wir in 5 Jahren wieder 150 Watt Netzteile?"
MFG Bobo(2005)
Avalox
2005-08-01, 20:18:35
Dual-Cores verbrauchen zwar mehr als Einzel-CPUs mit Einzelkernen, aber offensichtlich sind die Hersteller (auch) in der Zukunft nicht mehr bereit wesentlich über 100 W CPU-Maximalverbrauch zu gehen.
Vom Takt her könnte der Pentium 4 deutlich höher als 4 GHz. Die Grenzen sind aber marketingbedingt.
: "Zurück zu den Wurzeln. Haben wir in 5 Jahren wieder 150 Watt Netzteile?"
Ich denke die Verlustleistung ist einfach durch den Formfaktor des Gehäuses gedeckelt. Hätten wir alle heute BTX Gehäuse, so würde Intel heute sicherlich P4 mit 5GHz vertreiben.
Nicht umsonst wird mit dem M2 wieder mal der TDP erhöht. Es folgen bald CPUs mit vier Kernen und die Arbeitstakte werden weiter steigen.
Erweiterte Funktionen des Powermanagements, werden zwar dafür sorgen, dass diese CPUs nicht mehr Energie benötigen, als momentan an Rechenleistung gebraucht wird, allerdings werden sich solche CPUs sicherlich kräftig bedienen, wenn es mal nötig ist.
Wenn du nun eine Stagnation bei der Verlustleistung siehst, dann würde diese bedeuten, dass du keinen Nutzen mehr in höherer Rechenleistung siehst. Denn Beschränkung der Verlustleistung bedeutet gleichzeitig Beschränkung der Rechenleistung.
Das die Verlustleistung des P4 so aufgestoßen ist, lag doch nur an dem Spagat der benötigten Kühlmaßnahmen im ATX Gehäuse.
Gibt es andere PC Komponenten wo auf die Verlustleistung geachtet wird? Grafikkarten? Oder Netzteile. Netzteile können wahre Stromfresser sein. Achtet jemand drauf? Nein.
Was war denn der Renner an non PC Zeugs in diesem Sommer?
Klimageräte. Klimageräte welche nur 1200W Leistung aufnehmen tragen schon den Namenszusatz Öko. Interessiert es jemanden? Nein.
In der EU wird nun der Strom eher billiger als teurer.
Und da soll ein CPU Hersteller der in der Lage wäre eine Feilschnelle CPU zu bauen drauf verzichten nur damit diese in der max. Verlustleistung unter 100W bleibt?
Nein, dass glaube ich nicht.
Wird sich schnell rum sprechen, dass schnelle CPUs mit einer hohen max Verlustleistung, gar nicht viel Strom bei der täglichen Arbeiten benötigen müssen.
lol
du reisst es wohl nicht ganz
es geht sehrwohl mehr rechenleistung bei gleichbleibender verlustleistung
und bei 4 DIEs mit ja 3ghz (athlon 64 mit 1 mb cache)
reden wir schon von einer gigantischen rechenleistung für schlappe 100 watt
wenn man GPUs ansieht geht der stromverbrauch im verhältnis zur leistung die letzten 2 generationen deutlich zurück.
bei AMD gilt das gleiche für deren 90nm-cpus, bleibt einzig der prescott die ausnahmen die überproportional viel strom braucht, was nach der netburst-zeit auch vorbei sein wird.
Avalox
2005-08-01, 23:05:37
es geht sehrwohl mehr rechenleistung bei gleichbleibender verlustleistung
und noch mehr Rechenleistung bei höherer Verlustleistung.
Du scheinst anzunehmen, dass sich Hersteller an eine 100W Grenze freiwillig orientieren, ich nehme dieses nicht an. Wo ist nun dein Problem?
Sobald der Wettbewerb wieder voll entbrennt geht es wieder zügig voran. mM
Ronny145
2005-08-01, 23:15:56
Ja, Fortschritt.
Mit den 25W eines MT-44, kommt der A64 X2 4800+ aber auch nicht aus.
Ist doch keine Desktop CPU. Naja die 1000W kann ich mir nicht vorstellen. Vielleicht bei einem extremen System mit übertaktetem Intel DualCore (oder dann QuadCore), Sli Verbund etc. Aber nie und nimmer bei einem normalen System.
paul.muad.dib
2005-08-01, 23:24:05
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
AFAIK sind die TDPs der AMD X2 deutlcih höher.
Ronny145
2005-08-01, 23:33:25
AFAIK sind die TDPs der AMD X2 deutlcih höher.
Ist das jetzt wichtig? Entscheident ist immer noch der Stromverbrauch und nicht was AMD auf dem Papier angibt.
Spasstiger
2005-08-01, 23:33:51
1000 Watt für einen Standard-Spiele-PC in 5 Jahren ist ziemlich überzogen, wer heute ein 500 Watt Markennetzteil kauft, wird das mit Sicherheit auch noch in 5 Jahren verwenden können (wenn man auf Sperenzchen wie SLI/Crossfire verzichtet), wenn die Netzteile bis dahin nicht schon defekt sind.
Aber tendenziell wird der Stromverbrauch stetig ansteigen, sicherlich werden irgendwann auch 1000 Watt erreicht, bei entsprechender Kühlung. Vielleicht wird ja wirklich irgendwann mal das Haus mit PCs beheizt ;).
Bokill
2005-08-02, 01:16:43
... Nicht umsonst wird mit dem M2 wieder mal der TDP erhöht. Es folgen bald CPUs mit vier Kernen und die Arbeitstakte werden weiter steigen.
Erweiterte Funktionen des Powermanagements, werden zwar dafür sorgen, dass diese CPUs nicht mehr Energie benötigen, als momentan an Rechenleistung gebraucht wird, allerdings werden sich solche CPUs sicherlich kräftig bedienen, wenn es mal nötig ist. Wenn man bedenkt, dass der CPU Kern immer kleiner wird (lediglich Cache und weitere Funktionseinheiten kommen neu hinzu), so fliessen unglaublich hohe Ströme durch immer kleiner werdende Leiterbahnen. Da nutzt ein neuer Gehäuseformfaktor nichts.
Wenn du nun eine Stagnation bei der Verlustleistung siehst, dann würde diese bedeuten, dass du keinen Nutzen mehr in höherer Rechenleistung siehst. Häh?
Ich sehe es als Gebot der Vernunft an, dass sich Hersteller verstärkt Gedanken um Ströme machen. Auch wenn SOI, Low/High-K, Strained SI, Long Run ... gewisse Verbesserungen ermöglichen. Leckströme bleiben verstärkt ein Thema. Mit immer kleiner werdenden Leiterbahnen ist es schlichtes Design-Harakiri noch grössere Ströme durch einen Microprozessor zu jagen.
Denn Beschränkung der Verlustleistung bedeutet gleichzeitig Beschränkung der Rechenleistung. Das ist Unsinn, schon mit intelligenten Ideen könnte dennoch mehr Leistung herausgeholt werden.
Ein frühes Beispiel habe ich auch. Den Strong ARM. Der entstand in Zusammenarbeit von DEC (hohe Rechenleistung der Alphas) mit ARM (extrem stromsparende transistorarme CPUs).
Man könnte deinen Satz aber auch umdrehen. Weil der Pentium 4 künstlich in seiner Rechenleistung gebremst wurde, konnte zeitweilig sein Takt nach oben getrieben werden.
... Gibt es andere PC Komponenten wo auf die Verlustleistung geachtet wird? Grafikkarten? Oder Netzteile. Netzteile können wahre Stromfresser sein. Achtet jemand drauf? Nein. Jain, immerhin besitzen die aktuellen Grafikkarten nun auch Stromsparfeatures. Auch hier begrenzt irgendwann eine Mischung aus Physik, Ökonomie (Kühlung kostet, eine fettere Kühlung kostet noch mehr) und Verbraucheraktzeptanz die Wattleistung.
Viel Stromdurst bedeutet ja auch verringerte Lebensdauer, bei 1000 W pro Heimrechner sollte man lieber seine Hardware leasen und nicht kaufen, da diese zu schnell altert durch die Abwärme.
Aber auch insgesamt orientieren sich die Hersteller verstärkt daran, den Stromhaushalt ihrer Logikschaltungen zu optimieren, nur so versprechen sie sich auch weiter den Takt zu steigern, wenn zugleich auch der Stromhaushalt berücksichtigt wird. Auch Dual-Core/Multicore hat nur Sinn, wenn der Stromhaushalt beachtet wird. Mehr Wärme bedeutet nun mal auch höhere Ausfallraten.
Das Problem ist eher, dass nun eine Vielzahl von weiteren Elektronischen Gräten die Haushalte bevölkern, sie alle wollen Strom, in so fern wird ein Teil der Stromersparnis von noch mehr Elektronik im Haushalt wieder aufgefressen.
MFG Bobo(2005)
z3ck3
2005-08-02, 02:14:52
Wenn ein normaler PC 1000W braucht um einen Buchstaben auf dem Bildschirm darstellen zu können, werden wir spätestens 1 Jahr nach dieser Errungenschaft nicht mehr existieren und die Erde bleibt min eine Milliarde Jahre unbewohnbar.
Es ist wichtig mit weniger mehr zu machen, nicht mit mehr mehr zu schaffen. PCs verbrauchen schon jetzt viel zu viel Strom. Intel sollte man dafür verklagen, das sie es nicht entlich packen den P4 in Rente zu schicken und den PM zu etablieren. ATI und NVIDIA sind auch nicht gerade die Helden was Stromverbrauch angeht. Den Spieleentwicklern müsste man allesamt auch mal in den Arsch treten. Statt ein Game zu optimieren und auf langsameren Rechnern spielbar zu machen wird es möglichst schnell Veröffentlicht und einfach mal durch 3 Compiler geschickt um es auch gleich auf Teufel komm raus für jede Plattform rauszubringen. Außerdem habe ich den Eindruck das viele Entwickler das schlechte Gameplay und die schlechte Story mit Effekten vertuschen wollen. So haben wir ein buntes Spiel was eine 850XT benötigt statt ein gutes Spiel was max. eine 9600Pro braucht.
Ich habe nichts gegen Fortschritt, nur was dagegen wenn man beschissen mit den Resourcen umgeht. (Ob das nun die Leistung der Hardware, oder die Natur ist, spielt keine Rolle)
Ailuros
2005-08-02, 04:54:05
Wunschtraum eines IHVs oder eine so realistisch wie moeglich Einschaetzung der Zukunft?
http://users.otenet.gr/~ailuros/estimate.jpg
VooDoo7mx
2005-08-02, 05:47:28
Überspitzt könnte ich da mir eher die Gegenfrage vorstellen: "Zurück zu den Wurzeln. Haben wir in 5 Jahren wieder 150 Watt Netzteile?"
Dieser Aspekt ist gar nicht mal so abwegig. Schaut man sich die aktuellen PC Verkäufe an, ahben bei uns in Deutschland mit über 60% die Notebooks die stationären PCs längst überholt. Tendenz steigend.
Mein PC hat zumindestens ein Netzteil mit 92W maximal Output. Der gesamte PC, mit Monitor und Lautsprechern wohlgemerkt, verbraucht im Windows Betrieb so um die 30W.
@Ailuros
Ist die Grafik von NV?
Was bedeutet Power/Chip?
Juerg
2005-08-02, 06:50:59
Ist die Grafik von NV?
Was bedeutet Power/Chip?Würde sagen Ja, kein anderer Chip hatte sonst 222 Millionen Transistoren letztes Jahr. Power/Chip is die max. Leistungsaufnahme des NV40. Knapp über dem AGP Pro150 Steckplatz... :) Ich denke diese Zahl ist die, die der Wahrheit am nächsten kommt von allen die ich schon gelesen oder gehört habe. :eek:
Aber was ist Capability (10^12) ??
Was ist im NV40 = 1.05*10^14 heute und NV_XY = 42.28*10^14 in Jahre 2014... sind irgendwie exoribtante Zahlen :confused:
Spasstiger
2005-08-02, 08:14:16
Aber was ist Capability (10^12) ??
Was ist im NV40 = 1.05*10^14 heute und NV_XY = 42.28*10^14 in Jahre 2014... sind irgendwie exoribtante Zahlen :confused:
Vielleicht irgendein Maß für die Rechenleistung.
Power/Chip müssen aber absolute Peakwerte und keine Durchschnittswerte darstellen. Selbst mit ner 6800 Ultra kann man einen Spielerechner zusammenstellen, der nur um die 200 Watt an Leistung aufnimmt.
][immy
2005-08-02, 08:49:38
Wenn ein normaler PC 1000W braucht um einen Buchstaben auf dem Bildschirm darstellen zu können, werden wir spätestens 1 Jahr nach dieser Errungenschaft nicht mehr existieren und die Erde bleibt min eine Milliarde Jahre unbewohnbar.
Es ist wichtig mit weniger mehr zu machen, nicht mit mehr mehr zu schaffen. PCs verbrauchen schon jetzt viel zu viel Strom. Intel sollte man dafür verklagen, das sie es nicht entlich packen den P4 in Rente zu schicken und den PM zu etablieren. ATI und NVIDIA sind auch nicht gerade die Helden was Stromverbrauch angeht. Den Spieleentwicklern müsste man allesamt auch mal in den Arsch treten. Statt ein Game zu optimieren und auf langsameren Rechnern spielbar zu machen wird es möglichst schnell Veröffentlicht und einfach mal durch 3 Compiler geschickt um es auch gleich auf Teufel komm raus für jede Plattform rauszubringen. Außerdem habe ich den Eindruck das viele Entwickler das schlechte Gameplay und die schlechte Story mit Effekten vertuschen wollen. So haben wir ein buntes Spiel was eine 850XT benötigt statt ein gutes Spiel was max. eine 9600Pro braucht.
Ich habe nichts gegen Fortschritt, nur was dagegen wenn man beschissen mit den Resourcen umgeht. (Ob das nun die Leistung der Hardware, oder die Natur ist, spielt keine Rolle)
das mit den Resourcen und dem Fortschritt ist so eine sache. wenn man heutzutage ein Programm Entwickelt, müssen da so viele Features rein, das man entweder ne armee von entwicklern hat (würde aber den preis extrem steigern) oder man muss sachen nutzen, die schon vorhanden sind und noch mit Managed Code programmiersprachen arbeiten. das hat aber den riesen nachteil, das Managed code resourcefressender und langsamer ist als handoptimierter code, jedoch ist das produkt innerhalb kurzer zeit fertiggestellt (zumindest im vergleich zu handoptimierten code)
wir könnten ja heute auch noch alles im asseblercode schreibe und würde quasi dadurch schon optimieren, aber wie lange würde es dann dauern, auch nur ein winziges programm zu schreiben
daher werden die programmiersprachen immer komforttabler, wenn auch nicht schneller. im endeffekt brauchst du für den gleichen prozess mehr rechenzeit, aber der prozess ist sehr viel schneller geschrieben als vorher (außerdem sind die programme sehr viel übersichtlicher)
z.B. Java, man kann relativ schnell ein programm damit entwickeln und es auf vielen plattformen laufen lassen (theoretisch auf allen), aber gleichzeitig ist java eine relativ langsame sprache
Den satz den hier jemand geschrieben hat, das eine Einschränkung im Verbrauch gleichzeitig eine Einschränkung in der Rechenleistung wäre kann ich nicht richtig nachvollziehen. zwar trifft es vielleicht mehrere cpus zu, jedoch hat dies keine generelle gültigkeit.
Senkt ein hersteller beispielsweise die Verlustleistung durch verringern der Leckströme, wird den cpus keinerlei rechenleistung genommen, ganz im gegenteil könnten diese unter umständen sogar höher getaktet werden
steigen die Leckströme, was ein höherer verbrauch mit sich bringt, sinkt gleichzeitig die taktbarkeit der cpu, da es ab einer bestimmten grenze einfach nicht mehr schnell genug weggekühlt werden kann, was an wärmeleistung umgesetzt wird.
abgesehen davon, erhitzt sich die CPU, dehnt auch diese sich minimal aus, was einen geringeren wiederstand zur Folge hat und dadurch einen höheren Stromfluss, was wiederum mehr hitze bedeutet etc... und schnell erligt die cpu einem hitzetod
die hersteller haben also sehrwohl ein interesse daran die Verlustleistung ihrer Komponenten zu senken, denn über gewissen grenzen können sie nicht hinausgehen, denn ich glaube kaum, das sie davon ausgehen das sich der Otto-Normalverbrauche demnächst eine stickstoffkühlung zulegt nur damit er eine CPU bei normaltakt betreiben kann.
und nochmal @topic
1000W, ein großteil davon sollte in wärme umgewandelt werden, also wenn ihr den PC nicht im freihen stehen habt, dann solltet ihr nicht daneben sitzen :), Klimaanlagen haben zwar auch ihre 1200Watt aber diese können auch nur dann effektiv genutz werden, wenn ein schlauch nach draußen führt (oder gleich die klimaanlage draußen steht und nur nach innen pustet) damit die wärme die in dem gerät entsteht auch abgeführt werden kann ohne den raum aufzuheitzen.
Avalox
2005-08-02, 09:18:20
[immy']
und nochmal @topic
1000W, ein großteil davon sollte in wärme umgewandelt werden, also wenn ihr den PC nicht im freihen stehen habt, dann solltet ihr nicht daneben sitzen :),
Nein, dass ist doch genau der Irrglaube.
Das interessante sind doch die Powermanagement Funktionen.
Solch ein PC (man sollte es nicht an einer bestimmten Leistung festmachen) würde i.d.R. überhaupt nicht in Volllast laufen. Vermutlich kann eine Anwendung allein auch gar keinen PC mehr in einen Volllastbetrieb zwingen.
Das Management der Rechenleistung, was die Zukunft bringen wird. Dieses wird wichtig, da die Parallelisierung immer wichtiger wird. Im nächsten Jahr wird es Quadcores geben.
Wird erstmal die @Home Software mit SMP ordentlich arbeiten können, so wird der Anreiz schlagartig steigen, zuhause auch mehrere CPUs parallel einzusetzen.
Dieser Aspekt wird gerne vergessen. Es werden sicherlich Zuhause die Systeme mit mehreren CPUs kommen. Massives SMP verlangt nach intelligenten Lösungen, um die Rechenleistung und damit auch die Leistungsaufnahme zu skalieren.
Ich finde diese 1000W Diskussion unpassend. Diese Leistungsangabe war ein Beispiel. Ob es nun 800W oder 1200W, oder einfach nur eine ansteigende Tendenz ist, ist für die Diskussion herzlich egal.
P.S. ein Klimagerät ist für die Wärme Entwicklung ein schlechtes Beispiel, da es eine Wärmepumpe ist.
Dein Staubsauger wird z.B. 1000W Leistungsaufnahme haben. Dieses aber dauerhaft. Hat man gleich ein Beispiel für das benötigte Kühlgebläse Onboard. :biggrin:
][immy
2005-08-02, 09:34:14
Nein, dass ist doch genau der Irrglaube.
Das interessante sind doch die Powermanagement Funktionen.
Solch ein PC (man sollte es nicht an einer bestimmten Leistung festmachen) würde i.d.R. überhaupt nicht in Volllast laufen. Vermutlich kann eine Anwendung allein auch gar keinen PC mehr in einen Volllastbetrieb zwingen.
Das Management der Rechenleistung, was die Zukunft bringen wird. Dieses wird wichtig, da die Parallelisierung immer wichtiger wird. Im nächsten Jahr wird es Quadcores geben.
Wird erstmal die @Home Software mit SMP ordentlich arbeiten können, so wird der Anreiz schlagartig steigen, zuhause auch mehrere CPUs parallel einzusetzen.
Dieser Aspekt wird gerne vergessen. Es werden sicherlich Zuhause die Systeme mit mehreren CPUs kommen. Massives SMP verlangt nach intelligenten Lösungen, um die Rechenleistung und damit auch die Leistungsaufnahme zu skalieren.
Ich finde diese 1000W Diskussion unpassend. Diese Leistungsangabe war ein Beispiel. Ob es nun 800W oder 1200W, oder einfach nur eine ansteigende Tendenz ist, ist für die Diskussion herzlich egal.
P.S. ein Klimagerät ist für die Wärme Entwicklung ein schlechtes Beispiel, da es eine Wärmepumpe ist.
Dein Staubsauger wird z.B. 1000W Leistungsaufnahme haben. Dieses aber dauerhaft. Hat man gleich ein Beispiel für das benötigte Kühlgebläse Onboard. :biggrin:
das 1000 Watt maximalleistung nicht gleich 1000Watt leistung entspricht ist mir schon klar, hätte ich vielleicht besser erwähnen sollen. gehen wir mal davon aus das ich 1000 Watt realleistung meine :) und nicht nur die peaks (aber auch schon ab 300 Watt realleistung wird es neben dem pc recht schnell warm :) )
es gab mal einen netten artikel in einer fachzeitschrift (ich kann mich nicht mehr an den namen erinnern) "Lassen sie ihren PC arbeiten" darin ging das darum das der Prozessor die meiste zeit sogut wie gar nichts (im vergleich zu dem was er leisten kann) leistet, da nur in wenigen ausnahmen das system dauerbelastet wird. um wirklich zu sehen was ein pc maximal leistet am besten ein programm wie super pi laufen lassen und zusätzlich noch was die Grafikkarte und soundkarte belastet. dann könnte man das netzteil auch mal zum schwitzen bringen ^^
Ailuros
2005-08-02, 18:24:48
Ist die Grafik von NV?
Was bedeutet Power/Chip?
Ja (siehe GPU_gems2). Power per chip ergo Stromverbrauch pro chip.
Ailuros
2005-08-02, 18:27:36
Vielleicht irgendein Maß für die Rechenleistung.
Power/Chip müssen aber absolute Peakwerte und keine Durchschnittswerte darstellen. Selbst mit ner 6800 Ultra kann man einen Spielerechner zusammenstellen, der nur um die 200 Watt an Leistung aufnimmt.
Welche 6800Ultra lief denn bei Vorstellung mit 475MHz?
Spasstiger
2005-08-02, 18:34:28
Welche 6800Ultra lief denn bei Vorstellung mit 475MHz?
Habe ich gesagt, dass es um eine 6800 Ultra geht?
VooDoo7mx
2005-08-02, 19:48:06
Aber irgendwie wundert mich das...
Ein gesamtes 6800U Board verbraucht so um die 70W.
Und in der Grafik ist irgend etwas von 150W/je Chip. :|
Deswegen war ich mir auch nicht sicher, ob die Grafik von NV stammt.
GloomY
2005-08-02, 19:58:40
Aber irgendwie wundert mich das...
Ein gesamtes 6800U Board verbraucht so um die 70W.
Und in der Grafik ist irgend etwas von 150W/je Chip. :|
Deswegen war ich mir auch nicht sicher, ob die Grafik von NV stammt.SLI?
Vielleicht ist das der Verbrauch pro Rechner für die Grafikausgabe. Dann müsste man eben 2x 70W = ~150W rechnen.
Ailuros
2005-08-03, 01:08:22
Habe ich gesagt, dass es um eine 6800 Ultra geht?
Es sind Peak-werte einer NV40@475MHz; ich hab mich falsch ausgedrueckt.
Avalox
2005-08-03, 09:44:38
Tja. Wenn man heute einen schön hohen Wert annimmt, dann sieht die stätig steigende Kurve zu morgen, doch schön flach aus.
Ailuros
2005-08-03, 11:01:46
Tja. Wenn man heute einen schön hohen Wert annimmt, dann sieht die stätig steigende Kurve zu morgen, doch schön flach aus.
Unter 100W Durchschnitt haette eine der ersten Ultras@475MHz sowieso nicht sein koennen. Selbst wenn Du ~70W fuer 400MHz in 2004 annehmen willst, sieht die Steigerung des Stromverbrauchs immer noch verdammt konservativ aus im Vergleich zur eingeschaetzten Chip-Komplexitaet nach 10 Jahren.
Wie schon erwaehnt G70 hat 302M Transistoren ist auf 430MHz getaktet, verbraucht aber weniger Strom als die originale NV40.
Ronny145
2005-08-03, 13:13:20
Unter 100W Durchschnitt haette eine der ersten Ultras@475MHz sowieso nicht sein koennen. Selbst wenn Du ~70W fuer 400MHz in 2004 annehmen willst, sieht die Steigerung des Stromverbrauchs immer noch verdammt konservativ aus im Vergleich zur eingeschaetzten Chip-Komplexitaet nach 10 Jahren.
Wie schon erwaehnt G70 hat 302M Transistoren ist auf 430MHz getaktet, verbraucht aber weniger Strom als die originale NV40.
Naja, der Verbrauch ist eher identisch zur 6800 Ultra. Bei 75Mhz mehr ist der Verbrauch gleich 30W höher. Wie kann das sein?
stav0815
2005-08-03, 13:27:17
AFAIK sind die TDPs der AMD X2 deutlcih höher.
Papier ist geduldig.
Und wenn AMD 150W angibt, dann verbrauchen die CPUs deshalb nicht 150W!
Bokill
2005-08-04, 12:25:46
Papier ist geduldig.
Und wenn AMD 150W angibt, dann verbrauchen die CPUs deshalb nicht 150W! Wie häufig wird der Mist denn noch wiederholt.
Hatte mal irgendwann in einem Monsterthread dazu ausgiebigst schon den feinen Unterschied zwischen den Strombedarfs-Angaben von Intel und AMD (mit anderen) ausdiskutiert ...
paul.muad.dib
2005-08-04, 13:56:36
Gut, sie verbrauchen in der Regel nicht mehr, aber ein NT muss ja aauch darauf ausgelegt sein, den Spitzenverbrauch bedienen zu können.
Ronny145
2005-08-04, 14:04:36
Gut, sie verbrauchen in der Regel nicht mehr, aber ein NT muss ja aauch darauf ausgelegt sein, den Spitzenverbrauch bedienen zu können.
Also du meinst beim Spitzenverbrauch verbraucht der dann so viel? Ich sage dazu mal lieber nichts.
Bokill
2005-08-04, 14:13:47
Gut, sie verbrauchen in der Regel nicht mehr, aber ein NT muss ja aauch darauf ausgelegt sein, den Spitzenverbrauch bedienen zu können. Das ist eine hoffnungslose Untertreibung, was du hier betreibst.
Mit gemessenen Strombedarfsangaben steht sogar ein Dual-Core K8 recht gut da, gegenüber einem Einzelkern P4. http://www.xbitlabs.com/articles/cpu/display/athlon64-x2-3800_3.html
http://www.xbitlabs.com/images/cpu/athlon64-x2-3800/cons.png.
Zudem sind die gemessenen 65 W für den Athlon 64 X2 3800 doch deutlich unter den Specs, die so manche Blauäugigen Forennutzer hier so frank und frei den K8 Kernen 1 zu 1 mit den Pentium 4 Kernen vergleichen lässt.
Die Strombedarfsangeben von AMD und Intel basieren auf eine gänzlich anderen Definition, und dienen letztlich nur noch der PR, nicht der Aufklärung.
MFG Bobo(2005)
Avalox
2005-08-04, 14:13:56
@Ronny145
Wenn AMD angibt, die CPU benötigt 200W max dann würde es auch sicherlich so sein.
Nur sagt AMD überhaupt nicht, was eine CPU im speziellen an Energie benötigt. Was ich auch absolut i.O. finde, denn ob eine CPU 89W oder 60W max. benötigt, ist so egal wie .....
@Bokill
"The practical power consumption .." schreibt XBit.
Also weder ist es eine maximal Angabe und was praktisch heute bei DualCore Cpus überhaupt bedeutet schreibt XBit auch nicht. "Praktisch"@home werden DualCores heute überhaupt nicht ausgelastet, was dir auch klar ist.
Die Performance an möglichst detailierten Benchmarks festzumachen und den Energieumsatz allein auf S&M 1.7.2 zu beziehen..
Bokill
2005-08-04, 17:22:31
@Ronny145
Wenn AMD angibt, die CPU benötigt 200W max dann würde es auch sicherlich so sein.
Nur sagt AMD überhaupt nicht, was eine CPU im speziellen an Energie benötigt. Was ich auch absolut i.O. finde, denn ob eine CPU 89W oder 60W max. benötigt, ist so egal wie .....
@Bokill
"The practical power consumption .." schreibt XBit.
Also weder ist es eine maximal Angabe und was praktisch heute bei DualCore Cpus überhaupt bedeutet schreibt XBit auch nicht. "Praktisch"@home werden DualCores heute überhaupt nicht ausgelastet, was dir auch klar ist.
Die Performance an möglichst detailierten Benchmarks festzumachen und den Energieumsatz allein auf S&M 1.7.2 zu beziehen..
Ja ich weiss, das ist ja der Witz. Der kleine Prozessor von AMD verbrauch nun mal deutlich weniger als sein takthöheres X2 Schwester-Modell. AMD gibt aber traditionell seit ca. 2 Jahren einen Maximalverbrauch einer Baureihe an, keine individuellen Maximal-, Durchschnitts-, Halbverbrauchssonstwas-Angaben ...
mich kotzt es immer wieder an, dass die Angaben der Hersteller 1:1 verglichen werden. Das klappt nicht, auch wenn immer wieder der Versuch gestartet wird.
Wie gesagt, es gab auch mal einen Monsterthraed da wurde erschöpfend diese Sache mit den Strombedarfszahlen klargestellt. Aber nein lieber Hirn ausschalten und nur die Schwarzen Buchstaben ohne tiefere Überlegung immer und immer wieder und immer wieder und immer wieder und immer noch immer wieder, wie auf ewig, wie in einer Endlosschleife wiederholen.
Übrigens finde ich es gar nicht ok, dass AMD keine individuellen Maximal-Angaben mehr macht. Zu K6-Zeiten gab es weitgehend noch solche Angaben.
MFG Bobo(2005)
Spasstiger
2005-08-04, 21:19:24
Übrigens finde ich es gar nicht ok, dass AMD keine individuellen Maximal-Angaben mehr macht. Zu K6-Zeiten gab es weitgehend noch solche Angaben.
MFG Bobo(2005)
Die TDP-Werte interessieren ja in erster Linie Mainboard- und Kühlerhersteller, die ihre Produkte für eine komplette Prozessorreihe auslegen wollen. Und da reicht der Wert für das Spitzenmodell aus einer Reihe.
paul.muad.dib
2005-08-05, 08:31:07
Das ist eine hoffnungslose Untertreibung, was du hier betreibst.
Mit gemessenen Strombedarfsangaben steht sogar ein Dual-Core K8 recht gut da, gegenüber einem Einzelkern P4. http://www.xbitlabs.com/articles/cpu/display/athlon64-x2-3800_3.html
http://www.xbitlabs.com/images/cpu/athlon64-x2-3800/cons.png.
....
MFG Bobo(2005)
Die Grafik zeigt aber deutlich den Mehrverbrauch der X2 CPUs, auch wenn es gegenüber Intel immer noch wenig ist, braucht ein X2 3800+ doch deutlich mehr als das zu Grunde liegende Single Core Modell 3200+. Analog X2 4000+ - 3500+. Das heißt imho, dass die Tendenz nach oben geht. Dass dies mit einer Leistungssteigerung einhergeht, will ich ja gar nicht bestreiten.
Ronny145
2005-08-05, 09:46:17
Die Grafik zeigt aber deutlich den Mehrverbrauch der X2 CPUs, auch wenn es gegenüber Intel immer noch wenig ist, braucht ein X2 3800+ doch deutlich mehr als das zu Grunde liegende Single Core Modell 3200+. Analog X2 4000+ - 3500+. Das heißt imho, dass die Tendenz nach oben geht. Dass dies mit einer Leistungssteigerung einhergeht, will ich ja gar nicht bestreiten.
Wer hat denn gesagt, dass der DualCore nicht mehr verbraucht als ein SingleCore?
paul.muad.dib
2005-08-05, 10:26:52
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
Ronny145
2005-08-05, 10:50:11
Na gut, aber zumindest der X2 3800+ und X2 4200+ verbrauchen nicht so viel mehr oder nur 20-30W mehr. Das ist immer noch deutlich weniger als ein SingleCore P4.
Der 4800+ hebt sich nur deutlich ab. Kann mit dem E6 Stepping zu tun haben.
Ailuros
2005-08-05, 15:15:03
Naja, der Verbrauch ist eher identisch zur 6800 Ultra. Bei 75Mhz mehr ist der Verbrauch gleich 30W höher. Wie kann das sein?
Das Bild zeigt 222M Transistoren aber mit 475MHz an. Ein solches Modell gab es eigentlich nie. Es koennte durchaus sein dass man um diese Taktrate zu erreichen z.B. die Volts erhoeht hatte.
Glaubst Du nicht auch dass es einen Grund gab warum sich NVIDIA letztendes in 2004 fuer "nur" 400MHz entschieden hat und die 450MHz/Extreme eher Presse-Material war?
Ich wollte eigentlich aber auf ganz was anderes hinaus; falls sich die Technologie der dynamischen Taktraten verschiedener Einheiten eines Prozessors weiterentwickelt, koennte es durchaus sein dass der Stromverbrauch nicht mehr so radikal steigen wird wie man erwarten wuerde. Die angegebenen 198W fuer 2014 klingen mir verdammt konservativ dass muss ich schon sagen, aber irgend eine Vorstellung der Zukunft koennte sie vielleicht schon haben; ob diese jetzt zu optimistisch sind oder nicht kann ich ja nicht wissen.
Ailuros
2005-08-05, 15:31:14
Uebrigens dass ich es nicht vergesse, was den Threadtitel begrifft: vielleicht sollte man erst die aelteren PSUs mit den heutigen vergleichen bis man zu Watt Werten kommt.
Mein ziemlich altes 450W PSU hat maximal 17A auf dem +12V rail und ich kann heute PSUs kaufen mit aehnlichen Watts die nahezu 30A erreichen koennen.
Man kommt auch mit weniger als 450W heutzutage fuer ein high end System aus (so lange man kein multi-board config einsetzt); Vorraussetzung ist dass es sich um ein zuverlaessiges Netzteil handelt dass zumindest 22A auf dem +12V rail hat.
Neon3D
2005-08-10, 23:48:14
Wenn man sich den Stromverbrauch so ansieht, könnte man das ja fast annehmen. Dual-Core war nochmal ein Sprung im Stromverbrauch, 4-Kern CPUs dürften wohl noch mal deutlich mehr Leistung ziehen. Über die Entwicklung bei GPUs braucht ja auch nicht mehr viel gesagt werden. Klar bringen die Shrinks Einsparungen aber der LEistungshunger steigt schneller.
Andererseits ist ja auch irgendwann mal eine Schmerzgrenze erreicht. Was ist die Lösung? Haben wir bald nur noch Notebokks bzw. Notebook-Technik? Oder gibt es noch andere, bisher ungenutze Maßnamen, um den Stromverbrauch zu senken?
manche grafikkarten verlangen schon extrem gute netzteile mit hohen werten.
die hitze wird dadurch immer höher bzw. es wird auch lauter (lüfter müssen mehr heiße luft rausbringen).
ich denke aber das es trotzdem nötig wird eine minimale leistung von 400 w zu liefern ( entspricht 550w noname oder noch mehr)
Enermax bietet das passende Galaxy-Netzteil mit 1000 W für 300 Euro !
http://www.hartware.de/media/news/38000/38310_1b.jpg
http://www.hartware.de/news_38310.html
-error-
2005-08-21, 00:05:53
Enermax bietet das passende Galaxy-Netzteil mit 1000 W für 300 Euro !
http://www.hartware.de/media/news/38000/38310_1b.jpg
http://www.hartware.de/news_38310.html
Enermax-Netzteile haben mit die besten Wirkungsgrade.
Aber wenn ich mir das so durchlese
Das "Galaxy-Netzteil" ist rund 3,5 Kilogramm schwer und verbraucht selbst im Idle-Modus mehr Strom als ein gewöhnliches Netzteil unter Vollast. Ab Oktober gibt es das High-End Netzteil für rund 300 Euro.
Wird mir schlecht. Das dürfte EU garnicht zulassen zum Verkauf.
Bokill
2005-08-21, 15:03:31
Fehlen nur noch weitere bunte LEDs und matt metallisch schimmernde gebürstete Metalloberflächen* ... ;)
* = Katzengold & Speichermärchen (http://www.orthy.de/modules.php?name=News&file=article&sid=1002) [Orthy.de] :D
MFG Bobo(2005)
Ich hoffe auch, dass die Leistungsaufnahme, wenn nicht zurückgeht, dann zumindest auf dem aktuellen Niveau bleiben wird. Die immer wichtiger werdenden Laptops könnten dabei helfen.
Avalox, deine Vision ist trotzdem schön, ich wünsche mir sowas auch. Spiele zB., wo man die gewünschten FPS einstellt, und Grafikkarte und CPU nur soviel rechnen, dass diese FPS erreicht werden. Das wäre mal genial. (Wobei es ja anscheinend einige Spiele gibt, wo man die FPS begrenzen kann - laufen CPU/GPU dann auch mit weniger Auslastung?)
Skynet und Tombman werden sie sicher bald besitzen :D
2 stück auf dem foto für jeden eins
sonderanfertigung
Mistersecret
2005-08-22, 03:11:35
Es wird genau umgekehrt sein. Die Leistungsaufnahme wird im allgemeinen Durchschnitt sehr sinken. Das hängt vor allem mit der Energiekrise zusammen, die uns bevor steht. Nur wenige werden sich solche Stromfresser noch leisten können.
Der PC der Zukunft ist tragbar (Notebook) und begnügt sich mit 10-30W maximal.
SKYNET
2005-08-22, 04:43:12
Es wird genau umgekehrt sein. Die Leistungsaufnahme wird im allgemeinen Durchschnitt sehr sinken. Das hängt vor allem mit der Energiekrise zusammen, die uns bevor steht. Nur wenige werden sich solche Stromfresser noch leisten können.
Der PC der Zukunft ist tragbar (Notebook) und begnügt sich mit 10-30W maximal.
nur wenn man sich auch mit 10-30fps begnügt, bei 1280*800 auflösung. :lol:
nur wenn man sich auch mit 10-30fps begnügt, bei 1280*800 auflösung. :lol:
Schon mal was von Fortschritt und Entwicklung gehört? Die Dinger werden weniger Strom bei gleicher Leistung benötigen.
Avalox
2005-08-22, 10:50:58
Schon mal was von Fortschritt und Entwicklung gehört? Die Dinger werden weniger Strom bei gleicher Leistung benötigen.
Tja minimal, maximal Prinzip.
Warum die gleiche Rechenleistung bei weniger Verlustleistung, wenn man auch mehr Rechenleistung bei gleicher Verlustleistung haben kann?
Die maximale Verlustleistung hat vor allen überhaupt nichts mit den Betriebskosten zu tun. Mit einer ökologischen Aussage genauso wenig.
Was soll denn im Jahr 2005 so besonderes passiert sein, dass die Verlustleistung auf einmal anormal fällt?
Am Scheitelpunkt der Gezeiten angelangt? Nie und nimmer. Ein kleiner Rückfall mal hier und mal da, bedingt durch ausgelutschte Spezifikationen, die schnell wieder kompensiert werden.
Bokill
2005-08-22, 13:32:01
...
Was soll denn im Jahr 2005 so besonderes passiert sein, dass die Verlustleistung auf einmal anormal fällt? ...
Wenn "anormal" sinkende Wattgrenzen bedeutet, so ist das Jahr 2005 tatsächlich anormal. Wundert sich niemand, dass AMD beständig in ihrer K8-Flotte die Watt-Verbrauchsgrenze nach unten treibt und dabei nur unwesentlich den Takt steigert?
Genau das ist 2005 passiert, und nur die wenigsten sind tatsächlich bewusst bereit mehr als 100W der CPU alleine zu gönnen.
MFG Bobo(2005)
Merlin31
2005-08-22, 14:55:11
http://www.golem.de/0508/39957.html
Avalox
2005-08-22, 16:27:53
Wundert sich niemand, dass AMD beständig in ihrer K8-Flotte die Watt-Verbrauchsgrenze nach unten treibt und dabei nur unwesentlich den Takt steigert?
Der Takt vielleicht nicht, dafür steigert AMD die Anzahl der Kerne, welches ja ebenfalls die Verlustleistung nach oben treibt.
Das AMD nicht den Takt der Single Cores anhebt, liegt wohl eher daran, dass man die Gunst der Stunde des Versagens von Intels NetBurst nutzt, um die DualCore CPUs zu forcieren. Da passen hochtaktige SingleCore CPUs als Konkurrenten im eigenen Haus nicht.
Aber selbst bei AMD kannst du im Jahr 2005 eine CPU mit höherer Verlustleistung kaufen als im Jahr 2004.
Bokill
2005-08-22, 19:58:57
Der Takt vielleicht nicht, dafür steigert AMD die Anzahl der Kerne, welches ja ebenfalls die Verlustleistung nach oben treibt.
Das AMD nicht den Takt der Single Cores anhebt, liegt wohl eher daran, dass man die Gunst der Stunde des Versagens von Intels NetBurst nutzt, um die DualCore CPUs zu forcieren. Da passen hochtaktige SingleCore CPUs als Konkurrenten im eigenen Haus nicht.
Aber selbst bei AMD kannst du im Jahr 2005 eine CPU mit höherer Verlustleistung kaufen als im Jahr 2004. Bezogen auf gleichen Takt und Einzelkern sehe ich da einen reduzierten Leistungsbedarf bei AMD.
Wenn man dann noch die K7 Modelle herausnimmt und die K8 Sempronreihe in 90 nm für das gleiche Marktsegment (und fast gleichem Takt) zum Vergleich heranzieht, stimmt dies um so mehr.
Wenn man allerdings die jeweiligen Spitzenmodelle der verschiedenen Jahre betrachtet, so stagniert (fast) der Spitzenverbrauchswert. Der Clawhammer hat jedenfalls eine deutlich hoheren Strombedarf wie seine jüngeren Brüder. Dafür liegt der Takt höher bei den jüngeren Nachfolgern (Venice und Co) und ist nun auch als Dual-Core erhältlich.
MFG Bobo(2005)
ist doch käse
dafür habe ich die doppelte rechenleistung
und bevor wieder irgendeiner daherplapper "die anwendung ist dafür nicht optimiert"
ich wil lnicht dass die anwendung optimiert wird
ich will einen 1cpu anwendung und mit dem anzderen prozessor wil lich endlich die restlichen softwareprodukte plauffen lassen können
kein opera (mit ca60 fenster) etc. aus wenn ich mal ne runde zocken will
dafür ist die 2. cpu sinnvoll und nicht damit alles wieder so beschissen läift wie mit einer cpu
InsaneDruid
2005-08-22, 23:35:55
Für dein Beispiel mit Opera brauchste nur ordentlich Ram, beim zocken frisst das sogut wie keine CPULast.
Mr.Magic
2005-08-23, 01:48:42
Das Beispiel war schlecht gewählt aber sonst hat der Gast gar nicht mal so unrecht.
Ich ziehe z.B. einen A64X2 als Ersatz, für beide Systeme die ich im Einsatz habe, in betracht (es steht demnächst ein kompletter Neukauf an). Es gibt genug regelmäßig laufende Anwendungen die bei mir die CPU auslasten. Nur dafür schaffte ich mir überhaupt einen Zweit-PC an. Mit einem Dualprozessor kann sich dann ein Kern um alles bis auf das Spiel kümmern und ich kann mit dem Zweiten ohne großartigen Overhead zocken.
Die X2-CPU selbst braucht dann zwar etwas mehr Strom aber dafür fällt ein komplettes Subsystem weg. Selbst wenn ich momentan nur einen PC hätte denke ich nicht, dass der Neue mehr Strom zu verbraten imstande sein wird als der Aktuelle braucht.
Avalox
2005-08-23, 11:26:10
Sind mehrere Anwendungen strickt Multithreaded programmiert, dann ist die Wahrscheinlichkeit trotzdem höher, dass ein Kern grade frei wird, um sich um einen Thread zu kümmern.
ist doch käse
dafür habe ich die doppelte rechenleistung
und bevor wieder irgendeiner daherplapper "die anwendung ist dafür nicht optimiert"
ich wil lnicht dass die anwendung optimiert wird
ich will einen 1cpu anwendung und mit dem anzderen prozessor wil lich endlich die restlichen softwareprodukte plauffen lassen können
kein opera (mit ca60 fenster) etc. aus wenn ich mal ne runde zocken will
dafür ist die 2. cpu sinnvoll und nicht damit alles wieder so beschissen läift wie mit einer cpuKannst ja einfach die Prozess-Affinität auf eine CPU legen, wenn du nur die Hälfte der Leistung willst :rolleyes:
Mr.Magic
2005-08-23, 20:31:51
Sind mehrere Anwendungen strickt Multithreaded programmiert, dann ist die Wahrscheinlichkeit trotzdem höher, dass ein Kern grade frei wird, um sich um einen Thread zu kümmern.
Wenn ich nicht gemeint war einfach ignorieren.
Ich will nicht das meine Anwendungen sich gegenseitig Performance abgraben können. Der eine Kern soll ruhig mit 50% Last vor sich hindümpeln wärend die zweite CPU sich alleine um das Spiel kümmert. Selbst wenn ich mal einen Film von DV auf DVD umwandlen lassen will kann ich in der Zeit locker spielen, und es ist mir dann auch egal wie lange das Umwandeln dauert (spielt nach der Zeit die man mit dem Schnitt verbracht hat eh keine große Rolle mehr). Bis dann mal Spiele kommen die Multithreading brauchen können ist der A64X2 längst in Rente und die Physik übernimmt ein Spezialchip. Nicht falsch verstehen, die KI von mehreren Prozessoren berechnen zu lassen klingt extrem gut, allerdings denke ich das ist mehr etwas für den Zeitraum von 2010-2015.
Neomi
2005-08-23, 20:46:04
Ich will nicht das meine Anwendungen sich gegenseitig Performance abgraben können. Der eine Kern soll ruhig mit 50% Last vor sich hindümpeln wärend die zweite CPU sich alleine um das Spiel kümmert. Selbst wenn ich mal einen Film von DV auf DVD umwandlen lassen will kann ich in der Zeit locker spielen, und es ist mir dann auch egal wie lange das Umwandeln dauert (spielt nach der Zeit die man mit dem Schnitt verbracht hat eh keine große Rolle mehr).
Wo ist das Problem? Über die Prozeßpriorität läßt sich da einiges regeln, man muß seine Möglichkeiten nur nutzen.
Bis dann mal Spiele kommen die Multithreading brauchen können ist der A64X2 längst in Rente und die Physik übernimmt ein Spezialchip. Nicht falsch verstehen, die KI von mehreren Prozessoren berechnen zu lassen klingt extrem gut, allerdings denke ich das ist mehr etwas für den Zeitraum von 2010-2015.
Gerade KI läßt sich gut parallelisieren, zumindest wenn mehrere KI-Subjekte vorhanden sind.
Mr.Magic
2005-08-23, 21:20:49
Die Regelung der Prozeßpriorität ist nicht besonders hilfreich, oft bekommt das Spiel zu viel Resourcen und bestimmte Anwendungen zu wenig. Zumindest ist das bei Single-CPU so, bei der Spieleanzahl die MT (sinnvoll) unterstützen male ich nämlich mal ganz frech eine 0. Wenn Multithreading mal in allen Bereichen eingesetzt wird relativiert sich das möglicherweise alles, aber bis sich das für die Softwareindustrie lohnt (genug Hardwareverbreitung) fließt noch viel Wasser den Bach hinunter, ich verwende Windows Vista und bin 1-3 Hardwaregenerationen weiter.
wenn das spiel auf 2cpus ausgelgt ist braucht es auch 2 cpus
da es eben dann die rechenleistung von 2x2ghz A64 braucht
da nützt mir das regeln von hand nichts da es mit einer cpu kaum noch laufen wird
(del)
2005-08-24, 03:27:05
Der Takt vielleicht nicht, dafür steigert AMD die Anzahl der Kerne, welches ja ebenfalls die Verlustleistung nach oben treibt.
Das AMD nicht den Takt der Single Cores anhebt, liegt wohl eher daran, dass man die Gunst der Stunde des Versagens von Intels NetBurst nutzt, um die DualCore CPUs zu forcieren. Da passen hochtaktige SingleCore CPUs als Konkurrenten im eigenen Haus nicht.
Aber selbst bei AMD kannst du im Jahr 2005 eine CPU mit höherer Verlustleistung kaufen als im Jahr 2004.
Man sieht nur zu, daß die X2 genug schneller sind als die normalos :smile: Ich glaub der Markt nimmt nicht wirklich eine CPU mit mehr als 100W an. Schon selbst für Presskot mußte Intel mächtig Spott ernten. Auch wenn die Spannungsschienen aus welchen man zieht leicht umgeschmiessen werden, mehr scheint der User daheim nicht zu wollen. Für Grakas würd ich die Grenze so auf 80W "Kühlaufwand" schätzen. Das wäre meine Grenze. Eine X800pro gibt sich im 2D Betrieb mit der Hälfte dessen zufreiden was eine 9800XT verballert. In 3D liegen sie fast gleich, aber die X800pro schaufelt dann auch ne Menge mehr FPS auf den Bildschirm. ATI/NV scheinen es also auch erkannt zu haben. Sowas wie die 5900 wird es imho also auch nicht mehr geben.
tombman
2005-08-24, 04:13:34
Also ich denke, daß ein Limit derzeit erreicht ist, einfach deshalb weil ein PC immer noch in einen Kasten mit gewisser Größe passen soll und dabei der Kühlaufwand nicht zu groß und vorallem laut werden darf. Wakü = zu heikel IMO.
Aus diesen pyhsikalischen Eingrenzungen ergibt sich auch schon die maximale zulässige Hitzeentwicklung, die ja auch mit der Leistungsaufnahme WATT zusammenhängt.
Ich denke, man wird versuchen im jetzigen Rahmen zu bleiben, aber durch immer feinere Strukturen in der Fertigung immer mehr Transistoren pro Fläche unterzubringen um damit die Leistung drastisch zu erhöhen. (also auch Spannung (vcore) weiter nach unten)
Avalox
2005-08-24, 12:03:23
Ich bin sehr gespannt, wie sich AMD mit dem M2 im Bezug auf BTX positioniert und welches Max TDP diese Plattform bieten wird.
Auch wäre es interessant, ob einer der beiden Hersteller plant über kurz oder lang auch skalierbares SMP Zuhause zu unterstützen. Sollte erstmal die Software Basis Zuhause vorhanden sein, welche tatsächlich von Multi Prozessor Umgebungen profitiert, so wäre dieses nahe liegend.
SKYNET
2005-08-24, 12:57:59
Schon mal was von Fortschritt und Entwicklung gehört? Die Dinger werden weniger Strom bei gleicher Leistung benötigen.
mri wärs lieber gleichen strom bei mehr leistung. :cool: :tongue:
mindfaq
2005-08-24, 19:08:05
Skynet du sprichst mir aus der Seele...
Gäbe es nicht so viele Silentfreaks hätten wir vielleicht jetzt einen deutlich leistungsfähigeren und höher getakteten G70, dann eben mit monströs lauter Dual-Slot-Kühlung.
Mir wärs recht.
dargo
2005-08-24, 19:23:56
Gäbe es nicht so viele Silentfreaks hätten wir vielleicht jetzt einen deutlich leistungsfähigeren und höher getakteten G70, dann eben mit monströs lauter Dual-Slot-Kühlung.
Mir wärs recht.
Gäbe es nicht so viele Silentfreaks hätten wir jetzt auf dem G70 einen Staubsauger @ NV30 Kühler sitzen. :uattack4:
mindfaq
2005-08-24, 20:06:48
Gäbe es nicht so viele Silentfreaks hätten wir jetzt auf dem G70 einen Staubsauger @ NV30 Kühler sitzen. :uattack4:Aber dafür höhere Taktraten, was ich nur begrüßen würde.
(del)
2005-08-25, 01:01:01
Die Grafik zeigt aber deutlich den Mehrverbrauch der X2 CPUs, auch wenn es gegenüber Intel immer noch wenig ist, braucht ein X2 3800+ doch deutlich mehr als das zu Grunde liegende Single Core Modell 3200+. Analog X2 4000+ - 3500+. Das heißt imho, dass die Tendenz nach oben geht. Dass dies mit einer Leistungssteigerung einhergeht, will ich ja gar nicht bestreiten.
Das Bild zeigt, daß Dualcores mehr verbrauchen als Singlecores und weniger als DualCPU Systeme. Und das heißt, daß AMD auch mit dem X2 unter 100W bleib. Irgendwelche Tendenzen (?) kann ich hier nicht erkennen. Der erste Athlon64 zeigte was die CPU verbraucht. Der Winchester zeigte dann die TENDENZ. Mach die Leute nicht verrückt :wink:
(del)
2005-08-25, 01:03:47
Aber dafür höhere Taktraten, was ich nur begrüßen würde.
Das geht aber erst seit X-Fi, weil sie Dolby auch "im" Kopfhörer brauchbar nachbilden können...
ich denke eindeutig nein! Denn die Cpuhersteller entwickeln nicht nur die Taktraten und die Stabilität usw. sondern auch das die Prozzessoren nicht mehr so viel strom benötigen das gleiche gilt für grakas usw.
SKYNET
2005-08-26, 02:15:56
tombman sein PC verschlingt 710W teilte er mir mit... und er hat nur nen 3000+ auf defaulttakt drinne gehabt zum testen... *blubb*
(del)
2005-08-26, 02:21:05
tombman sein PC verschlingt 710W teilte er mir mit... und er hat nur nen 3000+ auf defaulttakt drinne gehabt zum testen... *blubb*
Der hat doch einen X2 mit SLI oder wie wo was? :) Bzw. wie gemessen?? 710W aus der Steckdose? Das glaub ich aber nicht wirklich ;)
mindfaq
2005-08-26, 11:20:23
710W kann ich mir auch beim besten Willen nicht vorstellen...
Wenn du das liest, tombman, sag mal bitte wie du das gemessen hast.
SKYNET
2005-08-26, 12:57:28
Der hat doch einen X2 mit SLI oder wie wo was? :) Bzw. wie gemessen?? 710W aus der Steckdose? Das glaub ich aber nicht wirklich ;)
ja, zieht 710W aus der steckdose... ja den X2 hat er auch, aber er wollte mit seiner vapo was testen, darum nur den 3000er drinne. =)
Ronny145
2005-08-26, 13:00:15
Wieviel hätte er dann wohl bei einem Intel System. Über 800W bestimmt. Da könnte er sich ja wirklich bald das 1000W Netzteil kaufen.
Avalox
2005-08-26, 17:41:54
Na ja. Das 1000W Netzteil würde dann bei Volllast, 1300W aus dem Netz ziehen. Die 710W Leistungsaufnahme wären ja mit einem der heute üblichen 550W Netzteile möglich.
Ronny145
2005-08-26, 17:55:54
Na ja. Das 1000W Netzteil würde dann bei Volllast, 1300W aus dem Netz ziehen. Die 710W Leistungsaufnahme wären ja mit einem der heute üblichen 550W Netzteile möglich.
Ein Netzteil auf Volllast laufen zu lassen, ein bisschen heikel kann das sein. Ich ging jetzt ausserdem nicht von den 710W aus. Jetzt mit dem Pentium XE 840. 800-850W und 80% Wirkungsgrad wären 640-680 Watt. Also auch schon zuviel für ein 550W Netzteil.
alpha-centauri
2005-08-26, 20:19:15
:| Die AMD Dualcores verbrauchen doch nicht wirklich mehr als die Singlecores.
ne. nur ungefaehr das doppelte vom single. is klar. natuerlich.
Android
2005-08-27, 23:37:33
Freue mich auf die Brennstoffzelle in Notebooks. Sabber !!!
Cya
Avalox
2005-08-29, 18:28:59
@Gast
Wie viele Millionen Watt Stunden elektrischen Strom verbrauchst du denn so im Jahr?
ne. nur ungefaehr das doppelte vom single. is klar. natuerlich.Also doppelt so viel habe ich bisher in keiner Quelle gesehen.
Spasstiger
2005-08-29, 19:08:36
ne. nur ungefaehr das doppelte vom single. is klar. natuerlich.
Sie verbrauchen weniger als die alten Single-Cores (Newcastle, Clawhammer) und sind dabei wesentlich schneller. Wenn diese Entwicklung anhält, scheint es eher nicht so, als ob der Stromverbrauch von CPUs weiter wächst. Natürlich wird es solche Musterbeispiele wie das, was AMD nun abgeliefert hat, in Zukunft eher seltener geben (die Quad-Cores werden sicherlich neue Spitzenmarken setzen).
ja, zieht 710W aus der steckdose... ja den X2 hat er auch, aber er wollte mit seiner vapo was testen, darum nur den 3000er drinne. =)
Ich frage mich, wie so einer noch in den Spiegel schauen kann.
http://www.pcpowercooling.com/about/whatsnew/index.php#T1KW
1 (ein) kilowatt! :biggrin:
SKYNET
2005-09-07, 15:03:42
Ich frage mich, wie so einer noch in den Spiegel schauen kann.
warum? ist doch cool!
warum? ist doch cool!
Klar. Es ist auch geil, wenn man ein Auto fährt, welches 30 Liter/100Km säuft.....
Solange es nicht schmerzt.....
Avalox
2005-09-07, 23:02:00
30l auf 100km?
Das ist doch ein absolut normaler Wert.
misterh
2005-09-07, 23:43:00
30l auf 100km?
Das ist doch ein absolut normaler Wert.
:rolleyes:
Avalox
2005-09-07, 23:51:13
Nehmen wir mal VW als Beispiel.
Ich denke mal, dass 80% alle VW Modelle 30Liter und mehr Benzin auf 100km brauchen.
Das wird doch hier niemand bezweifeln wollen?
fabnet2k
2005-09-29, 12:07:53
Früher kam man mit 230 Watt oder 250 Watt leicht aus, jetzt haben die meisten schon > 600 watt ^^
InsaneDruid
2005-09-29, 12:17:15
Zwischen "haben" und "brauchen" liegen aber zT Welten :)
-error-
2005-10-01, 12:08:41
Der Trend wird eher in die andere Richtung gehen, das wir in Zukunft weniger Strom verbraten, ein positiver Trend :)
SKYNET
2005-10-01, 13:07:02
Klar. Es ist auch geil, wenn man ein Auto fährt, welches 30 Liter/100Km säuft.....
Solange es nicht schmerzt.....
dafür fährt man diese 100km, in nur 15 minuten. ;)
Paul Brain
2005-10-01, 18:29:33
710W kann ich mir auch beim besten Willen nicht vorstellen...
Wenn du das liest, tombman, sag mal bitte wie du das gemessen hast.
Das glaub ich ihm irgendwie auch nicht ganz.
Hier läuft ein Dual-Xeon mit zwei 2,8GHz-Nocona-CPUs, 2GB RAM, ATi X800XT PCIe, Audigy 2ZS Platinum Pro, Adaptec 2200S Dual-Channel U320 RAID-Controller, und dieser spricht derzeit 6 U320-SCSI-Disks in einem _externen_ RAID-Gehäuse an, welches selbst ein 450W-Netzteil (mit entsprechender Effizienz und Verlustleistung) drinnen hat. All das und noch zusätzlich ein Sony TA-VA8ES-Verstärker und der Tuner hängen zusammen mit einem 21"-Röhrenmonitor an einer APC Smart-UPS XL 1000VA (die selbst ohne Last am Ausgang etwa 50W vom Netz zieht).
Und das ganze System zutzelt unter Vollast (alle vier logischen CPUs auf 100%, Grafikkarte rendert "nebenbei" 3Dmark) etwa 600W.
Würd mich also auch interessieren, wie man einen "simplen" Gamer-PC auf über 700W bringen kann, und zwar ohne ein paar 100W-Glühbirnen darin einzubauen.
Greets
InsaneDruid
2005-10-01, 18:53:50
Hat Tomb nicht eine Kompressorkühlung?
SKYNET
2005-10-01, 20:42:42
Hat Tomb nicht eine Kompressorkühlung?
japp, und 2x 7800GTX dazu..... alleine die grakas und cpu ziehn zusammen unübertaktet schon knapp 230W, dann noch seine 10k platten, laufwerke etc.
passt schon!
The_Invisible
2005-10-01, 20:46:34
dafür fährt man diese 100km, in nur 15 minuten. ;)
hm, das musst mir zeigen wo man mit 400km/h durchschnitt fahren kann bzw welche "autos" das überhaupt können
mfg
SKYNET
2005-10-01, 20:49:32
[ ] ich habe NICHT verstanden, worum es in dem vergleich ging!
so, da darfst du nun ein kreuzchen machen!
Paul Brain
2005-10-02, 04:05:57
japp, und 2x 7800GTX dazu..... alleine die grakas und cpu ziehn zusammen unübertaktet schon knapp 230W, dann noch seine 10k platten, laufwerke etc.
passt schon!
Schön, statt der 2x GTX hab ich halt 2x eine P4-CPU. Seine 10k-Platten: Süß. Bei mir sinds 3x 10k und 3x 15k-Platten. Plus seperates Netzteil. USV + externes HDD-Gehäuse brauchen zusammen schonmal über 200W, darauf kommt Tomb mit ein paar 10k-Platterln im Rechner nie.
Bleibt nur noch die Kompressorkühlung; da muß ich passen, weiß nicht, was sowas an Strom braucht. Die 710W kommen mir trotzdem ein bisserl _extrem_ viel vor.
Wie siehts mit dem Bildschirm aus? Was hat Tomb da? Viel mehr Saft als ein 21"-CRT kann ein Monitor wohl kaum ziehen.
Greets
Blaze
2005-10-02, 04:55:23
Bleibt nur noch die Kompressorkühlung; da muß ich passen, weiß nicht, was sowas an Strom braucht.
In etwa 200 Watt, meine zumindest...
InsaneDruid
2005-10-02, 11:48:11
Schön, statt der 2x GTX hab ich halt 2x eine P4-CPU. Seine 10k-Platten: Süß. Bei mir sinds 3x 10k und 3x 15k-Platten. Plus seperates Netzteil. USV + externes HDD-Gehäuse brauchen zusammen schonmal über 200W, darauf kommt Tomb mit ein paar 10k-Platterln im Rechner nie.
Bleibt nur noch die Kompressorkühlung; da muß ich passen, weiß nicht, was sowas an Strom braucht. Die 710W kommen mir trotzdem ein bisserl _extrem_ viel vor.
Wie siehts mit dem Bildschirm aus? Was hat Tomb da? Viel mehr Saft als ein 21"-CRT kann ein Monitor wohl kaum ziehen.
Greets
Tomb hat nen 24" Widescreen Röhrenmonitor (FW900)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.