Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue CPU Generation - wohin mit soviel Rechenpower?
Rogue
2011-05-02, 10:46:49
Kommenden Herbst bzw. schon im Sommer kommt ja die neue Welle Intel-CPU´s und AMD´s Bulldozer steht ja auch schon beinahe in den Startlöchern.
Ich als "Laie" (der sich über Hardware nur dann intensiv informiert wenn er grade was kaufen will) frage mich angesichts der Rechenpower die da angeboten wird wozu ich das privat überhaupt noch nutzen bzw. auslasten soll.
Wir haben also bald Taktraten bis über die 4GHz Grenze und das bei 6-8 Kernen.
Wie siehts denn auf seiten von Win7 bzw. den Anwendungen und Games mit der Nutzung von sovielen Kernen aus?
Gibts irgendwo Beispiele die mir als Normalo-PC-Spieler erklären können wie ich von solcher CPU Power profitiere?
Ich habe irgendwie das Gefühl das Marketing und technologischer Fortschritt den tatsächlichen Heimbedarf weit überholt haben.
Nutzen kommende Spiele denn tatsächlich soviele Kerne oder profitieren davon in einer ernsthaft spürbaren weise?
Gandharva
2011-05-02, 10:55:25
Alle Jahre wieder...
Rechenleistung kann man nie genug haben. Nur weil du keinen Anwendungszweck darin siehst, heisst das nicht das es ihn nicht geben würde.
Rogue
2011-05-02, 11:04:00
Rechenleistung kann man nie genug haben.
Und wo ziehst du da die Grenze?
Ich mein du wirst ja sicher kein Multi-Sockel Serverboard Zuhause haben.
Irgendwo muss es ja noch ne halbwegs gesunde Relation zwischen tatsächlichem Bedarf und vorhandener/anzuschaffender Hardware geben.
mapel110
2011-05-02, 11:12:27
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
dargos Thread kennst du?
Neuere Spiele skalieren zunehmend besser mit mehr CPU-Kernen. Leistung braucht man hauptsächlich bei Spielen. Für den Rest tuts auch ein Atom-Netbook. Da kann ich dich schon verstehen. Da brauchts eben viel Marketing, sonst wird man die Rechenknechte nicht mehr los.
Neurosphere
2011-05-02, 11:16:00
Naja, wozu sollte ich denn überhaupt ein Produkt entwickeln wenn es auf den meisten Systemen nicht anwendbar ist.
Ist die Power da kommt auch die Software dazu.
Frucht-Tiger
2011-05-02, 11:16:44
Was für eine Frage :D
Einfach Anwendungsfälle konstruieren:
z.B:
Familienfotos von Omas Geburtstag mit roten Augen?
- 10k€ Photoshop Ultra 5000 Elite Pro Porno Edition runterladen
- Sinnlos irgendwelche Filter über die Bilder laufen lasssen
- Geschwindigkeitsvorteil Octa auf Quad Core 20%!!!!!!
Bam!
Wenn du genug Rechenleistung hast und keinen Bedarf, dann bleib bei deinem System. Damit hast DU DEINE Relation gefunden.
Andere Anwendungsprofile, die mehr als Word und statische HTML-Seiten, benötigen freut sich jeder über mehr Leistung.
Und es gibt nicht nur Spieler. Man kann sogar mit Computern Arbeiten (echt jetzt, wirklich!!!). Da gilt sehr oft: Zeit ist Geld. Es ist immer gefährlich, wenn man von sich und seinen eigenen Bedarf, auf den bedarf im Allgemeinen oder Speziellen schließt. Der Anwendungszweck entscheidet. Und das reicht (zumindest bei x86) von Single Core Low-End ATOM usw. Prozessoren, bis hoch-gezüchteten iCore/Xeon Prozessoren mit 16 Kernen.
Undertaker
2011-05-02, 11:17:46
Die Alternative wäre, einfach nicht mehr die Topmodelle zu kaufen. Wenn für deine Ansprüche bereits deutlich weniger Leistung ausreicht, kauf dir einen i3 2100 und undervolte diesen. Der kostet dich keine 100€, verbraucht so kaum noch 30W und dürfte für viele Normalnutzer auf Jahre hinaus reichen.
Bei Grafikkarten hatten wir das Thema auch bereits: Durch die Masse an Konsolenports kann man heute selbst mit Modellen der unteren Mittelklasse fast alles in maximalen Settings spielen, wo "früher" noch halbjährliche Aufrüstungen vonnöten waren.
Acid-Beatz
2011-05-02, 11:36:41
Man könnte bei verbesserter Fertigung die Modelle wieder sparsamer machen, ist aber soweit ich weiß nicht in Planung.
Ich bin mit meiner C2D mit 1,8GHz aber noch durchaus zufrieden wobei auch kaum Spiele.
Greez
Shink
2011-05-02, 11:36:51
Alle Jahre wieder...
Rechenleistung kann man nie genug haben. Nur weil du keinen Anwendungszweck darin siehst, heisst das nicht das es ihn nicht geben würde.
Naja, die Existenz von Atom und Co deutet für mich darauf hin dass inzwischen tatsächlich viele Benutzer mit "altem, langsamen Müll" genauso gut leben können und aus High-End-Produkten keinen Vorteil ziehen können.
Die aktuelle Midrange-Generation hat mE genug Power für Facebook, Youbtube und Konsolen-Ports (die werden nunmal auch nicht mehr wirklich anspruchsvoller solange es keine neuen Konsolen gibt).
Darüber hinaus gibt es natürlich Anwendungszwecke (Server, Softwareentwicklung, HD-Videobearbeitung, Bildbearbeitung mit RAWs, Tombman) wo jedes bisschen Power händeringend gesucht wird und die freuen sich über "soviel Rechenpower".
Für mich ist es also durchaus eine andere Situation als z.B. vor 15 Jahren wo man sich alle paar Jahre eine neue High-End-CPU kaufen musste um aktuelle Software überhaupt zum Laufen zu bewegen.
Rogue
2011-05-02, 11:37:52
Putzig einige Reaktionen hier.
Das war eine ganz ernst gemeinte und sachliche Frage.
Leider scheinen einige hier das als Kritik an ihrem Kaufverhalten zu werten.
Ich will die Anschaffung einer so dicken CPU nicht schlechtreden.
Eher gehts mir darum gute gründe zu finden so ein Teil anzuschaffen.
Ein guter Grund ist für mich aber eben eine sinnvolle Nutzung und kein "boah ich hab im Benchmark den Dicksten"-Gedanke.
Mir ist schon klar das einige Leute mit ihren Rechnern daheim mehr tun als nur zocken.
Ich interessiere mich da für gute Beispiele die von soviel Power profitieren.
Damit meine ich keine an den Haaren herbeigezogenen Extremfälle seltenster Profisoftware.
Videobearbeitung war z.B. doch früher mal sehr CPU limitiert.
Gibts z.B. Programme die eine Konvertierung von Filmen (von z.B. BD Discs) auf mehrere Cores verteilen können?
Was habt ihr abseits von Spielen für Software laufen die eure CPU´s so richtig ins schwitzen bringen?
Bei Grafikkarten stellt sich die Frage für mich nicht soo sehr.
Zum einen bekomme ich aktuelle Modelle immernoch sehr gut ausgelatet, zum anderen startet die Spieleindustrie grade die ersten Titel die sich vom gemeinsamen Multiplattform-Nenner verabschieden oder zumindest für den PC deutlich mehr bieten.
Gibts z.B. Programme die eine Konvertierung von Filmen (von z.B. BD Discs) auf mehrere Cores verteilen können?
Das ist gerade das Paradebeispiel für die Nutzung mehrerer Prozessorkerne.
JEDES brauchbare Video- (auch Audio) Bearbeitungsprogramm nutzt zum Rendern alle verfügbaren CPU-Kerne. - Das auch nicht erst seit gestern.
Ein guter Grund ist für mich aber eben eine sinnvolle Nutzung und kein "boah ich hab im Benchmark den Dicksten"-Gedanke.
Das ist ein guter Grund. Aber wenn kein Bedarf bei dir da ist, ist das sinnvollste was du machen kannst, nichts kaufen. Warte bis du Bedarf hast. Etwas schlaueres kann man nicht machen.
Was habt ihr abseits von Spielen für Software laufen die eure CPU´s so richtig ins schwitzen bringen?
Ein gewöhnliches Excel 2010 rendert auch gern mit mehreren Kernen.
Selbst Youtube freut sich über mehrere Kerne.
Bildbearbeitung (fast gleichzusetzen mit Photoshop) freut sich über jeden Takt.
CAD - entweder man kann schneller weiterarbeiten oder ein Projekt mit mehr Details darstellen.
Im Prinzip alles was mehr als ein paar Sekunden zum berechnen benötigt freut sich über mehr Leistung.
Mr.Magic
2011-05-02, 12:07:17
Seit den Quadcores und SSDs/HDDs (yay eSATA) kann man erstmals ordentlich mit Multitasking arbeiten. Videoschnitt, Ent/Packen, VM, Internet usw, und nebenbei sogar noch spielen.
Mit den neuen CPUs muss man sich dabei einfach noch weniger Gedanken machen.
Genug Leistung wäre m.E. erst vorhanden, wenn alles SOFORT fertig ist.
N0Thing
2011-05-02, 12:44:43
Mir ist schon klar das einige Leute mit ihren Rechnern daheim mehr tun als nur zocken.
Ich interessiere mich da für gute Beispiele die von soviel Power profitieren.
Damit meine ich keine an den Haaren herbeigezogenen Extremfälle seltenster Profisoftware.
Videobearbeitung war z.B. doch früher mal sehr CPU limitiert.
Gibts z.B. Programme die eine Konvertierung von Filmen (von z.B. BD Discs) auf mehrere Cores verteilen können?
Eigentlich jeder Encoder, der etwas taugt, nutzt mehrere (in der Regel alle) Kerne der CPU. Dort habe ich privat auch den größten Nutzen aus meinem Quad-Core gezogen. Gerade seit es eine HD-Kamera in der Familie gibt, steht nun häufiger eine Konvertierung von Videos in DVD-konformes mpeg2 an (nicht jeder ersetzt seinen DVD-Player durch eine PS3 oder Blu-Ray-Player) und je schneller das fertig ist, desto besser.
Außerdem ist es schön, wenn man in einigen Spielen durch die zusätzlichen Kerne (und einer generell schnellen CPU) seltener Probleme mit den min. Frames bekommt und man nur durch die Grafikkarte und die Ausgewählten Einstellungen limitiert ist.
Shink
2011-05-02, 12:54:10
Damit meine ich keine an den Haaren herbeigezogenen Extremfälle seltenster Profisoftware.
Der Buildprozess von großen Anwendungen ist kein Extremfall und schon gar nicht selten.
Wenn du unbedingt CPU-Zeit verheizen willst kannst du Gentoo als Betriebssystem verwenden - damit kompilierst du dir alle Anwendungen selbst mit den gewünschten Einstellungen. Das dauert bei Projekten wie Libreoffice schon seine Zeit und ist gut skalierbar.
Gandharva
2011-05-02, 13:05:43
Und wo ziehst du da die Grenze?
Es gibt keine Grenze bzw. ist diese fliessend.
Für den einen reicht ein popeliges Atom Netbook, und der andere kann, weil er z.B. mit seinem Rechner haptsächlich arbeitet, nicht genug bezahlbare Rechenleistung haben. That's it.
Ric hat es in seinem ersten Post eigentlich auch schön auf den Punkt gebracht.
N0Thing
2011-05-02, 13:07:57
Stimmt, wenn man sich selber ein Gentoo Linux kompiliert kann auch nicht genug Leistung haben. Damals hat der Wechsel von einem Single- auf einen Dual-Core mitunter eine Ersparnis von Stunden bedeutet.
Spasstiger
2011-05-02, 14:03:44
In der Industrie kann man mit mehr Rechenpower die Produktivität steigern. Ich sehe das z.B. bei einem Kumpel in der Softwareentwicklung, die die Compilezeit und damit die ungewollten Kaffeepausen auf 1/15 durch die Umrüstung von Pentium 4 und HDDs auf Core i7 und SSDs reduzieren konnten.
Shink
2011-05-02, 14:17:10
Ich sehe das z.B. bei einem Kumpel in der Softwareentwicklung, die die Compilezeit und damit die ungewollten Kaffeepausen auf 1/15 durch die Umrüstung von Pentium 4 und HDDs auf Core i7 und SSDs reduzieren konnten.
Definitiv. Und das ist nicht einmal so negativ wie es klingt denn auf diese Art Kaffeepausen verzichtet man gerne.:freak:
Spasstiger
2011-05-02, 14:43:30
Definitiv. Und das ist nicht einmal so negativ wie es klingt denn auf diese Art Kaffeepausen verzichtet man gerne.:freak:
Die Umrüstung kam bei denen genau zur rechten Zeit, weil ein Major Release bevorstand, mit dem wieder die Marktführung behauptet werden sollte, und man deshalb zwecks Bugfixing permanent am Kompilieren war. Der Vorstand hat natürlich wenig Verständnis dafür, dass sich ein Release aufgrund ungewollter Kaffeepausen verzögert. ;)
Crazy_Chris
2011-05-02, 14:49:36
Man kann endlich GTA4 flüssig zocken. :freak:
Brillus
2011-05-02, 14:59:30
Jo im Software Entwicklung kann ich nru zustimmen, wobei nach viel heftiger als Compilierne ist Automatisches Testen, da kann man schon im Bereich von 30min bis 2 Tage reden (für letzteres hat man dann Server, aber man hätte schon gerne möglichst schnell Ergebnisse).
=Floi=
2011-05-02, 15:51:35
wir reden aber vom heim bereich!
bin aber auch ein freund von mehr kernen und viel takt. 6-8 kerne und 12-16 threads @ 5-5,5ghz halte ich für äusserst brauchbar und dürfte aktuell auch noch gut skalieren.
das problem ist noch immer die software, weil wenn diese mal richtig skaliert sieht man auch die extremen steigerungen. 4 kerne/threads sind heute wirklich das mindeste zu spielen, weil zwei kerne schon sehr viele games ausnützen und dann der grafiktreiber auch einen einen kern haben kann.
Dalai-lamer
2011-05-02, 16:33:50
Windows flutscht mit mehr Rechenpower einfach besser.
Schonmal mit einem Atom gearbeitet ?
Da ruckeln selbst Youtube Videos ^^
Dann eben Spiele, Fotoshop/Gimp, Videobearbeitung, Programmieren,
Viele Anwendungen gleichzeitig offen.
Auf meinem 2x1,6 Ghz Core 2 Duo war arbeiten nicht Effizient möglich.
Außerdem kann mans agen, dass der Energieverbrauch für die gleiche Leistung bei modernen CPU's deutlich sinkt.
Wenn man jetzt noch daran denkt, dass CPU Shrinks nur noch die nächsten 6-8 Jahre möglich sind, finde ich die Entwicklung notwendig.
Wenn man kkeine 8 Kerne braucht holt man sich eben einen Quad oder Dual core. Und wenn man überhaupt keine Ansprüche hat einen Atom.
So breit gefächert war der Markt noch nie.
Schlecht ? Bestimmt nicht
Geldmann3
2011-05-02, 18:28:07
Ich könnte die Rechenpower für Video-Editing und Games mit Mods gut gebrauchen. Im Moment wüsste ich erst ab ca. 8x8Ghz nicht mehr wohin damit. Aber die Software wird immer anspruchsvoller.
Genug Leistung wäre m.E. erst vorhanden, wenn alles SOFORT fertig ist.
Das ist eigentlich DIE Antwort. Ich will ein aufwendiges stundenlanges Video in Adobe After Effects erstellen, auf einen Knopf drücken und nach spätestens 1 Sekunde will ich die fertige Videodatei mit h.264 komprimiert auf meiner Platte liegen haben. Dann ist die Hardware schnell genug. Ob Quantencomputer das mal bewerkstelligen können?
Mal sehen ob in 50 Jahren vergleichbares möglich ist.
AnarchX
2011-05-02, 19:08:13
Das ist eigentlich DIE Antwort. Ich will ein aufwendiges stundenlanges Video in Adobe After Effects erstellen, auf einen Knopf drücken und nach spätestens 1 Sekunde will ich die fertige Videodatei mit h.264 komprimiert auf meiner Platte liegen haben. Dann ist die Hardware schnell genug. Ob Quantencomputer das mal bewerkstelligen können?
Mal sehen ob in 50 Jahren vergleichbares möglich ist.
Cloud-Computing wird wohl eine entsprechende Leistung schon eher bereitstellen können, zwar hat man dann die HW nicht mehr lokal. Aber wer braucht schon 24/7 eine solche Rechenleistung.
Die Zeit wo man als spielender Enthusiast aus der schnellste verfügbaren Endkunden-HW noch Nutzen gezogen hat ist wohl einfach vorbei. Und selbst eine neue Konsolengeneration wird hier wohl nicht solche hohe Ansprüche wie in der Vergangenheit generieren.
PatkIllA
2011-05-02, 19:11:42
In der Industrie kann man mit mehr Rechenpower die Produktivität steigern. Ich sehe das z.B. bei einem Kumpel in der Softwareentwicklung, die die Compilezeit und damit die ungewollten Kaffeepausen auf 1/15 durch die Umrüstung von Pentium 4 und HDDs auf Core i7 und SSDs reduzieren konnten.
Das stände bei mir auf der Arbeit auch ganz oben. SSD hab ich schon, aber beim kompilieren reißt es die nicht mehr so raus, wenn alles im Cache ist. Allerdings könnte der C#-Compiler deutlich besser mit mehr Kernen skalieren bzw. wenigstens die einzelnen Projekte parallel kompilieren. Da ist der C2D auf der Arbeit nicht mal auf beiden Kernen ausgelastet.
Ansonsten fällt mir persönlich noch Echtzeitbildoptimierung bei FullHD Videos ein. Wobei die meisten BDs auch so ganz brauchbar aussehen und man wahrscheinlich wieder für jedes Video ein passendes Preset auswählen müsste.
Acid-Beatz
2011-05-02, 19:20:54
Aber es läuft doch in irgendeiner Art und Weise drauf raus, dass man einen "relativ" performanten PC daheim stehen hat und den Rest zukünftig in die Cloud auslagert. Mal sehen wies genau kommt ... mal schauen.
PatkIllA
2011-05-02, 19:45:08
Aber es läuft doch in irgendeiner Art und Weise drauf raus, dass man einen "relativ" performanten PC daheim stehen hat und den Rest zukünftig in die Cloud auslagert. Mal sehen wies genau kommt ... mal schauen.
Solange man aber noch nicht ordentlich parallelisert ist man mit der Cloud auch nicht schneller. Plus die Datenschutzbedenken.
Acid-Beatz
2011-05-02, 19:51:31
Solange man aber noch nicht ordentlich parallelisert ist man mit der Cloud auch nicht schneller. Plus die Datenschutzbedenken.
Stimmt aber das, was sich parallelisieren lässt, das is es wohl auch schon mehr oder weniger und beim Rest wirds zukünftig auch nicht mehr sooo viel zu verbessern geben.
Datenschutz is ne reine Vertrauenssache ... nicht anders als jetzt :cool:
PatkIllA
2011-05-02, 19:55:37
Stimmt aber das, was sich parallelisieren lässt, das is es wohl auch schon mehr oder weniger und beim Rest wirds zukünftig auch nicht mehr sooo viel zu verbessern geben.
Das bauen von großen Projekten im Visual Studio ist kaum parallelisiert.
Datenschutz is ne reine Vertrauenssache ... nicht anders als jetzt :cool:Wenn man niemand anderem vertrauen muss ist man fein raus.
Acid-Beatz
2011-05-02, 20:15:26
Das bauen von großen Projekten im Visual Studio ist kaum parallelisiert.
Wenn man niemand anderem vertrauen muss ist man fein raus.
Ich glaub es liegt daran, dass selbst das Visual Studio etwas optimiert und man aus dem Grund Abhängigkeiten hat, wo man auf die "Auflösung" warten muss.
Das war gerade nicht polemisch gemeint: Entweder ich vertraue einer Firma oder ich lass es, egal ob privat oder im Unternehmen!
PatkIllA
2011-05-02, 20:19:16
Ich glaub es liegt daran, dass selbst das Visual Studio etwas optimiert und man aus dem Grund Abhängigkeiten hat, wo man auf die "Auflösung" warten muss.
Bei uns würde schon reichen die Assemblies parallel zu kompilieren. Im maximum sind über 100 Projekte in der Solution und nur eine Handvoll sind Basis wovon alle abhängig sind. Danach fächert sich das ziemlich breit auf.
Edit:
Anscheinend muss man das nur anschalten:
http://msdn.microsoft.com/en-us/library/y0xettzf.aspx
Das war gerade nicht polemisch gemeint: Entweder ich vertraue einer Firma oder ich lass es, egal ob privat oder im Unternehmen!Meine Antwort war genauso ernst gemeint. Es reichen ja auch Sicherheitslücken und ein Dritter klaut die Daten. Siehe jetzt z.B. Sony. Und Sicherheitslücken hat jeder Service ausreichender Komplexität und es ist eigentlich nur eine Frage des möglichen Gewinns und des Aufwand bis jemand mal schneller als der Anbieter ist.
Estella
2011-05-02, 21:12:03
Wozu ich auch privat Rechenleistung und mehrere Cores gebrauchen kann?
Virtualisierung
Gut, mein Hauptgrund Virtualisierung bei mir Einzusetzen ist die Fortbildung für den Beruf aber auch rein zum 'Vergnügen' gibt's genug Anwendungsfälle bei mir.
Mal 'eben' nen Webserver, ne Firewall, generell einen Server etc. aufsetzen kann ich nur mit einer VM aus einem Grundimage. Diese ganzen System sind reine Testsysteme, ob mir neue Funktionen gefallen oder ehr nicht.
Dann kommt eine OnlineBanking-VM immer dazu und eine VM zum ansurfen der 'bösen' Seiten. Und schwupps bin ich bei einem Haufen von VMs, die auch mal parallel laufen sollen. Und dann bin ich über RAM, SSDs und Rechenleistung mehr als erfreut. Damit bekommt man noch immer jeden Rechner in die Knie, ohne sich groß anzustrengen.
Voraussetzung: Interesse an IT im umfassenderen Sinne und Probiersucht ;)
Füt Otto-Normal-User ist das alles overkill, keine Frage. Ich weiss nicht, wie oft ich bisher versucht habe die Familie oder Bekannte von den Vorteilen der VMs zu überzeugen. Nutzt aber dann doch keiner, selbst wenn ich sie komplett einrichte. Ist halt zu kompliziert...
Nur werden VMs ja z.B. auch mit Win7 prof+drüber schon sehr schön unterstützt um Anwendung direkt aus den VMs zu starten. Mal schauen wie da die Entwicklung weitergeht. Wenn ich's mir in meiner Firma ansehe, was da alles virtualisiert wird, dann freue ich mich drauf das evtl. auch mal ansatzweise im Privatumfeld einzusetzen. Ein Server zum Consumerpreis im Keller/Abstellraum und dann thinclients/pads?! für das Wohnzimmer etc. das wär schon ne feine Sache... Ansatzweise ist das ja mittlerweile realisierbar.
Aber genug zum Virtualisieren, wird zu OT.
Sollte nur als mein Beispiel für die 'Notwendigkeit' von mehr Rechenleistung dienen.
p.s.: Wozu braucht man so hochgezüchtete Grakas, mehr als 45 PS beim Auto, mehr als 20m² Wohnraum pro Person, 700€ Einkommen... man kann meist immer mit weniger auskommen, wenn man muss. Bequem ist's aber erst mit mehr. So hat jeder seinen Anwendungsfall, bei dem er eben mehr als der Durchschnitt verbraucht. Für diese Leute wird auch produziert.
=Floi=
2011-05-02, 21:34:39
VMs sind hald noch immer sehr sehr ineffizient und wenn das grandsystem schon nicht performant ist wird es da dann noch schlimmer.
Cubitus
2011-05-02, 21:51:47
Ich brauche es für die Neusten kommenden Games!
Acid-Beatz
2011-05-02, 22:26:45
Dann kommt eine OnlineBanking-VM immer dazu und eine VM zum ansurfen der 'bösen' Seiten.
Das ist mehr oder weniger dumm: Live-CD oder garnichts!
Savay
2011-05-02, 22:39:07
Cloud-Computing wird wohl eine entsprechende Leistung schon eher bereitstellen können, zwar hat man dann die HW nicht mehr lokal. Aber wer braucht schon 24/7 eine solche Rechenleistung.
tolle idee...den flaschenhals "rechenleistung" gegen den noch engeren flaschenhals "bandbreite" eintauschen.
cloud computing ist im wahrsten sinne des wortes eine reine marketing wolke...
für manche anwendungen macht es durchaus sinn (SETI@home ahoi) aber etliche rechenintensive tasks sind eben deshalb so rechenintensiv weil große datenmengen verarbeitet werden müssen...da gewinnt man doch rein garnichts indem man die berechnungen in ne cloud auslagert.
Ich als "Laie" (der sich über Hardware nur dann intensiv informiert wenn er grade was kaufen will) frage mich angesichts der Rechenpower die da angeboten wird wozu ich das privat überhaupt noch nutzen bzw. auslasten soll.
ganz einfache kiste...batch konvertierung von nem haufen 18MPix RAWs mit anschließender skalierung und schärfung.
bild und videobearbeitung im allgemeinen, ich habe wenn ich sie nutze meist mehrere solcher anwendungen gleichzeitig offen und stehe nicht wirklich auf unfreiwillige "arbeits" pausen wenn DPP im hintergrund kurz nen 4GB ordner mit RAWs umwandeln soll. ;)
also mir kanns nicht schnell genug sein.
klar zum surfen und musik hören reicht jede popel dualcore CPU aus aber mein subnotebook (2*1,5GHz) ist nach dem kriterium ausreichend schnell, jedoch merkt man den unterschied auch bei alltäglichen anwendungen.
der desktop ist allein bei der CPU leistung schon um den faktor 10(!) vorraus, dass sich das nicht nur bei der bildbearbeitung niederschlägt sollte eigentlich einleuchten und das kleine system fühlt sich doch schon eine ganze ecke "zäher" an. selbst abseits von photoshop und co merkt man den unterschied sehr deutlich. :)
in zeiten in denen selbst der browser mal gerne an der 2-3GB grenze kratzt und bei einigen offenen tabs einiges an leistung ziehen kann sollte man den sinn schnellerer CPUs eigentlich kaum noch in frage stellen können :wink:
Estella
2011-05-02, 22:42:25
Das ist mehr oder weniger dumm: Live-CD oder garnichts!
@Sinnlosdiskussion
Naja, soll ja alles irgendwie benutzbar und noch im Rahmen bleiben.
Nutzt du eigentlich deinen Virenscanner auch nur von einer LiveCD oder ehr gar nicht? Denn man denke dran, dass JEDE zusätzliche Software ein Einfallstor für Angriffe ist. D.h. dein Virenscanner macht dein System angreifbar. Einziger Ausweg ist die LiveCD... Oder hab ich da jetzt was total missverstanden *grübel*
Acid-Beatz
2011-05-02, 23:19:02
@Sinnlosdiskussion
Naja, soll ja alles irgendwie benutzbar und noch im Rahmen bleiben.
Nutzt du eigentlich deinen Virenscanner auch nur von einer LiveCD oder ehr gar nicht? Denn man denke dran, dass JEDE zusätzliche Software ein Einfallstor für Angriffe ist. D.h. dein Virenscanner macht dein System angreifbar. Einziger Ausweg ist die LiveCD... Oder hab ich da jetzt was total missverstanden *grübel*
Ich dachte du redest NUR von Online-Banking und ich dachte weiter, dass DU denkst, dass durch eine VM mehr gesichert ist, als durch eine Live-CD.
Nicht meine Erfindung sondern es gibt auch Leute, die sowas wirklich denken :eek:
Greez
Shink
2011-05-03, 08:23:40
[QUOTE=PatkIllA;8711058Allerdings könnte der C#-Compiler deutlich besser mit mehr Kernen skalieren bzw. wenigstens die einzelnen Projekte parallel kompilieren. Da ist der C2D auf der Arbeit nicht mal auf beiden Kernen ausgelastet.[/QUOTE]
Hmm... das ist doch nicht Aufgabe des Compilers, oder?:confused:
Bin ja in der .NET-Welt nicht mehr heimisch aber paralleles Kompilieren je nach Abhängigkeit zwischen den Projekten konnte schon make.
Cherubim
2011-05-03, 09:13:36
Gibts irgendwo Beispiele die mir als Normalo-PC-Spieler erklären können wie ich von solcher CPU Power profitiere?
Da ich gerade daran sitze und es mich betrifft: 3D CAD
Sitze hier an SolidWorks 2010 64 Bit, einem i7 920 mit 12GB Ram und einer Quadro FX3700 (und ich habe einen der lahmsten Rechner hier im Büro). Die Kiste bekomme ich jeden Tag regelmäßig ans schwitzen. Eine etwas größere Baugruppe (und wir haben sehr, sehr große Baugruppen) und schon hängt das Teil bei 100%.
Von irgendwelchen Festigkeitsberechnungen oder Kollisionskontrolle möchte ich jetzt mal garnicht reden :freak:
Dafür haben wir nen eigenen Rechner, der sowas macht, damit wir dabei an anderen Sachen arbeiten können.
Hier ist es ganz klar: schnellerer Rechner ---> weniger warten ---> mehr schaffen ---> ? ---> profit
Nichts ist unbefriedigender, wenn man vor der Kiste sitzt und wartet, dass die Kiste sich wieder bewegt...
Es wurden ja schon genug Anwendungsfälle aufgezählt. Aber was für mich auch Grund zum Aufrüsten war: Das inzwischen sehr gute Idleverhalten. Meine neue CPU verbraucht dort deutlich weniger als meine alte, hat aber eben reichlich Leistung auf Abruf was Nervpotential vermindert. Zudem steigen ja auch die Anforderungen. In einer webapp (sans flash oÄ.) bei chrome bin ich schnell bei 75% (beide cores wohlgemerkt) und mehr Auslastung eines c2d mit 2ghz - und im Hintergrund läuft da nichts wichtiges. Diskussionen darüber ob das jetzt effizient oder was auch immer ist erübrigen sich ... ich brauche die Anwendung eben.
Matrix316
2011-05-03, 10:20:00
Ich hab letztens festgestellt, dass sich mit Adobe Lightroom und ein paar hundert 14 MP Bilder auch ein (zugegeben unübertakteter) i5 750 mit 8 GB RAM und OCZ Vertex 2 SSD auch wie eine lahme Schnecke verhalten kann. =)
Und auf einem Core 2 Duo MBPRO kann man in iPhoto Däumchen drehen, wenn man die gleichen Bilder ein wenig bearbeiten will.
kunibätt
2011-05-03, 13:16:21
Bei mir ist Blender so ein Kandidat: Upgrade vom q9650 auf i7 2600k hab ich kaum gefuhlt. Nicht weil er nicht schneller ist, sondern weil auch der 2600k um Dimensionen zu lahm ist:) Frage mich an der Stelle, wie Leute anno 93 mit Softimage 3d arbeiten konnten. Habe neulich ein making of von jurassic park gesehen, dass hat selbst beim Modellieren im Wireframe gelagt ohne Ende. Wie man dann so gute Materialen erstellt hat, wo selbst ein Prebiew Render ewig braucht, verstehe ich nicht.
Acid-Beatz
2011-05-03, 13:52:12
Blender könnte man zum Beispiel gut im Netzwerk verteilen bzw in der Cloud laufen lassen. Hat man die Netzwerkrenderfähigkeit bei Blender jetz eigentlich schon implementiert oder muss man die Bilder/Teilbilder immer noch über ein Zweitprogramm verteilen lassen ?!
Greez
(del)
2011-05-05, 11:48:50
Das war gerade nicht polemisch gemeint: Entweder ich vertraue einer Firma oder ich lass es, egal ob privat oder im Unternehmen!Wenn man lernfähig ist wird man mittlerweile schnell feststellen, daß man keiner Firma vertrauen kann. Ich find schon die Idee heutzutage aberwitzig :ulol:
Brillus
2011-05-05, 13:04:29
Um mal wieder etwas Back to Topic zu kommen:
Zusamenfassend könnte man sagen es gibt genug Anwendungsfälle welche die Rechenleistung brauchen, ob man die verwendet muss man selber wissen und entsprechend für sich selbst entscheiden ob man die Rechenpower baucht.
frankkl
2011-05-07, 14:27:35
Ich habe jetzt einen Intel Core 2 Quad Q8300 (4x 2500 MHz) und 4096 MB Arbeitsspeicher mit Windows 7 als 64 Bit
habe für alle normalen Anwendung mehr als genug Leistung das einzig was im Privatenbereich wirklich den Computer fordert wäre die hochauflösende Videobearbeitung !
Das erstemal nach all meinen Prozessoren der letzten Jahre
Pentium 133 MHz , Pentium 233 MMX , Celeron 800 MHz , Celeron 2000 MHz , Pentium E2180 (2x 2000 MHz)
habe ich mit meinen jetzigen Core 2 Quad Q8300 (4x 2500 MHz) soviel Leistung das ich mittelfristig nicht über einen neuen Prozessor nachdenken werde wohl ehr in eine SSD investieren :smile:
Johnny Rico
2011-05-07, 15:25:31
Wohin mit soviel Rechenpower? -> "ich habe einen q8300 und hatte früher einen p233mmx"
aha xd
Byteschlumpf
2011-05-07, 15:42:42
Bei mir ist Blender so ein Kandidat: Upgrade vom q9650 auf i7 2600k hab ich kaum gefuhlt. Nicht weil er nicht schneller ist, sondern weil auch der 2600k um Dimensionen zu lahm ist:) Frage mich an der Stelle, wie Leute anno 93 mit Softimage 3d arbeiten konnten. Habe neulich ein making of von jurassic park gesehen, dass hat selbst beim Modellieren im Wireframe gelagt ohne Ende. Wie man dann so gute Materialen erstellt hat, wo selbst ein Prebiew Render ewig braucht, verstehe ich nicht.
Mit Version 2.49b ist Blender auf einem i7 kaum schneller, als auf einem Q9550! Das habe ich eben festgestellt, als ich test.blend mit Version 2.57b ausgeführt habe - da rendert Blender praktisch mindestens 4mal so schnell! :D
Mich hatte es sehr gewundert, dass damals mein neues i7 860System @3,8Ghz nicht schneller im Benchmark war, als mein System mit Q9550@3,6Ghz! Das Problem ist also keineswegs die CPU sondern die Softwareversion.
blender V2.57b x64
----------------
00:06.39 8Threads (i860@4Ghz)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.