Archiv verlassen und diese Seite im Standarddesign anzeigen : Conroe und Konsorten: Brauchen wir wirklich einen Fortschritt wie diesen?
Betrachtern der Zahlen ist sicher schon aufgefallen, dass Intels Conroe mal eben alle Rekorde zunichte macht, die sich Übertakter auf der ganzen Welt erkämpft haben. Das ist schön, denn von einer neuen Architektur kann man – gerade angesichts des eher hüftlahmen Netbursts - mal einen ordentlichen Sprung erwarten. Doch wenn ich mir das als Spieler so ansehe: Brauchen wir aktuell eigentlich schnellere CPUs?
Sicher gewagt, aber mal ehrlich: Viele unter uns haben bereits massig Potenzial unter der Haube, das aktuell vorwiegend durch Leerlauf glänzt. Dual-Cores versprechen doppelte Rechenpower ... und gerade mal zwei Spiele wagen annähernd einen Ausblick auf das, was möglich wäre. Age of Empires III legt bestenfalls 30% zu, Quake 4 mit dem Patch auf Version 1.2 sogar beachtliche ~60%, wie sich heute in unserem Benchforum herausstellte. Eigentlich extrem potente Single-Cores wie der FX-57 sehen absolut kein Land.
Auf der anderen Seite sieht man Kreationen wie X³ oder von den Spaßvögeln von Bethesda. Beide ruckeln in Extremsituationen selbst auf schwerstübertakteten (aktuellen) High-End-Rechnern jenseits von Gut und Böse. Oblivion gewinnt durch den zweiten Kern etwa zehn Prozent Leistung – wow! Dass es anders geht, zeigen Quake 4 & Co.
Intels Conroe legt auf das bereits hohe Niveau eines A64 X2 nochmal einiges drauf. Das hat größtenteils zur Folge, dass vermurkste Ruckelspiele nach wie vor nur einen Kern voll auslasten, aber der ganze Spaß dennoch etwas schneller läuft. Das wiederum wird die Spieleentwickler wohl eher dazu treiben, weiterhin unoptimierten Code zu fabrizieren ... denn das aktuelle High-End wird's schon richten. Sauber!
Ähnliches zeichnet sich ja auch bei den Grafikkarten ab ... nur IMHO nicht so extrem. Optische Perlen wie Call of Duty 2 mögen zwar erst auf 300€-Karten gut laufen, zeigen dann aber ihre volle Pracht.
Das waren nur so ein paar Gedanken ... ich finde den aktuellen Zustand nämlich irgendwie hirnlos. Klar muss Fortschritt sein und neue, sauschnelle CPUs sind schick ... aber sollte man nicht erst einmal aus den bereits seit einem verdammten Jahr existenten Möglichkeiten mehr herausholen, statt immer höher zu takten?
MfG,
Raff
Omega2
2006-05-26, 17:21:58
Hallo Raff,
die Entwicklung, die Du beschreibst, ist doch schon so alt, wie es x86er Prozessoren gibt.
Zu Zeiten eines Amiga oder gar VC64 war die Hardware limitiert und die Programmierer mußten eben das Beste rausholen.
Mit dem Einzug des PCs ist es doch immer schon so gewesen, daß mehr Rechenleistung genutzt wurde, um das Programmieren zu vereinfachen. Kein Assembler, sonder halt C oder was auch immer.
Erinnere Dich mal an die Wincommander Serie. Die Spiele haben selbst auf damals aktueller high-end Hardware probleme gehabt. Also wurde aufgerüstet. So geht es schon seit Jahren und solange Otto Normaluser es als normal ansieht alle 2 Jahre 1000,-€ in HW zu stecken, wird es auch so bleiben.
Wo kämen wir denn da hin, wenn der Verbraucher in den Kaufstreik tritt und die Entwidkler zwingt, auf veralteter HW optimal zu programmieren ;).
Gruß
Omega
Ja, nur damals gab es nur eine CPU, die man aus- bzw. überlasten konnte. Jetzt wird die theoretisch doppelte Leistung einfach ignoriert. ;)
MfG,
Raff
Deathcrush
2006-05-26, 17:24:54
@RAFF
Da gebe ich dir vollkommen recht. Ich habe mir jetzt noch mal einen X2 gekauft der dann wohl für die nächsten 1 1/2 Jahre locker reichen dürfte. Mein Venice hat vorher auch recht lange gehalten, wenn ich da so an meine Grakas denke ^^. Die wird alle halbe Jahr ersetzt, auch um dem Verlust ein bisl entgegen zu wirken. So zahle ich vielleicht 50€ für eine neue Graka frauf. Ausserdem kaufe ich mir schon aus Protest kein Intel ;)
Prozessoren können NIE schnell genug sein, das erklärt sich eigentlich von selbst.
So lange es noch Wartezeiten gibt, so lange wird die Entwicklung auch weitergehen.
Games sind eher nebensächlich, denn dort merkt man ein bisschen mehr Taktrate kaum, doch wenn es um Anwendungen geht, die etwas berechnen sollen (Audio, Video, Grafikbearbeitung etc.), dann ist jede sekunde weniger Gold wert.
Raff[/POST]']Das wiederum wird die Spieleentwickler wohl eher dazu treiben, weiterhin unoptimierten Code zu fabrizieren ... denn das aktuelle High-End wird's schon richten.
selbst mit der maximalen theoretischen effizienz (takt * max. operationen pro takt) wären die aktuellen schlurren noch zu langsam. ein echtzeitraytracer der in üblichen auflösungen niemals, egal in welcher spielsituation, unter 100fps kommt ist dabei meine vorstellung eines maßstabs. dieser ganze grafikbeschleuniger-renderingquatsch ist nur ein kleiner, hässlicher flicken aufs leistungsloch.
AnarchX
2006-05-26, 17:55:54
Bei der breiten Basis an verschieden Komponenten bei PC-Hardware wird es einfach nicht möglich sein viel mehr zu optimieren um noch wirtschaftlich zu arbeiten.
Paralellisieren um Dual-Cores optimal zu nutzen, gehört nunmal auch nicht zu den einfachsten Dingen und einem großen Teil der Entwickler in den Softwareschiedem wird einfach das nötige Know-How fehlen.
Wie überall in der Wirtschaft wird rationalisiert und dies bekommt man eben auch in der Softwarebranche zu spüren.
BlackBirdSR
2006-05-26, 19:32:58
Raff[/POST]'] Doch wenn ich mir das als Spieler so ansehe: Brauchen wir aktuell eigentlich schnellere CPUs?
Nein wir als Spieler brauchen wohl nicht unbedingt so schnelle CPUs.
Du musst aber verstehen, dass CPUs nicht für uns Spieler entwickelt werden.
Dort wo Opteron und Woodcrest arbeiten wird jedes Prozent gebraucht.
Wir können uns quasi darüber freuen, die Früchte davon zu ernten.
Du hast recht, dass gleichzeitig der Code immer weniger optimiert wird. Das ist der Nachteil an der Sache.
Ich persönlich werde laaaaange Zeit nicht mehr aufrüsten. Keine Lust mehr auf den Scheiß. Jeden zweiten Monat kommt was Neues. Ich kaufe die PS3 und einen hochwertigen 32"-LCD-Fernseher, hänge ihn vor meinem Bett an die Wand und das wars - jahrelanger Spielspaß pur. Kann doch nicht angehen, dass ich 1.600 € für einen PC bezahle (erst vor 2 Monaten gekauft), ihn übertakte und Oblivion trotzdem ohne AA und auf 1280 x 1024 an vielen Stellen unter 15 FPS fällt. Spiele, die in einigen Monaten erscheinen werden, kann ich ja jetzt schon abhaken.
Keine Lust mehr auf die Spielerein der Spiele- und Hardwareindustrie. Vor allem machen mir 99 % aller Spiele sowieso keinen Spaß. Ich spiele sie ehrlich nur, damit ich mir einreden kann, dass sich das Geld für den neuen PC gelohnt hat. Immer der selbe Scheiß, nur anders verpackt. Final Fantasy, Mafia, Sims (als es neu erschien), Fifa World Cup 98 und ... ja ... Max Payne (2) vielleicht noch. Das sind Titel, die ich stundenlang zocken konnte. Mit Doom, FarCry, Half Life und den ganzen anderen gehypten Kram kann ich nichts anfangen. Selbst Oblivion ist nach 15 Stunden langweilig geworden. Da hat Final Fantasy (VII - X) erst richtig angefangen zu rocken, man wollte weiter und weiter und weiter. Aber Oblivion ... So was liebloses hab ich ja lange nicht mehr erlebt. Selbst mit einer Grafik, die jeden High-End-PC fordert, kriegen die keine tolle Stimmung hin. Alles ist so zusammenhangslos. Das hat Squaresoft vor 15 Jahren mit 2D-Spielen besser hingekriegt.
Aus, Ende, Finito. Ich bin sauer. :mad:
Raff hats gerafft:
Das wiederum wird die Spieleentwickler wohl eher dazu treiben, weiterhin unoptimierten Code zu fabrizieren ... denn das aktuelle High-End wird's schon richten. Sauber!
@Gast
Mich würde mal interessieren, bei was für einem 1.600€ PC Oblivion in 1280x1024 ohne Bildqualitätsoptimierungen ruckelt. Hast du ICQ, kannst du mir vielleicht mal dein Sys posten? (bin auch Square Fan)
Zum Thema: Ich sehe das ähnlich wie BlackBirdSR, die Gamer brauchen nicht unbedingt solche krassen CPUs (auch wenn es natürlich in Spielen wie Oblivion sehr hilfreich ist, sofern die Graka nicht limitiert), aber in anderen Bereichen (Xeon/Opteron-Zielgruppe) zählt eben wie schon erwähnt jedes Prozent.
EL_Mariachi
2006-05-26, 23:27:28
Raff[/POST]'] Das wiederum wird die Spieleentwickler wohl eher dazu treiben, weiterhin unoptimierten Code zu fabrizieren ... denn das aktuelle High-End wird's schon richten. Sauber!
genau deswegen werde ich dieses Spielchen auch nicht mehr länger mitmachen und mich noch mehr auf Konsolen konzentrieren ...
dort sind die Spielehersteller gezwungen optimierten Code zu verwenden ...
... anders gesagt, macht es auf Konsolen halt auch Sinn, weil die Plattform sich über Jahre nicht ändert.
Für PCs zu optimieren, die alle 6-12 Monate gewaltig an Leistung zulegen macht irgendwie keinen Sinn ( aus Sicht der Spielehersteller )
Hinzu kommt, daß Software Hardware verkauft ...
Wer würde denn noch seinen PC aufrüsten, wenn ein P4 3.0 Ghz oder ein A64 2.0 Ghz ausreichend für alles wär? ... ( tombman mal aussen vor ;) )
superdash
2006-05-27, 00:22:24
Das Hauptproblem sind momentan noch die Kosten. Ein Spiel auf Dualcore zu optimieren kostet Zeit, d.h. Geld. Da bis jetzt nur ein kleiner Prozentsatz Dualcore sein Eigen nennt, muss man sich als Entwickler zwei mal fragen, ob es sich rentiert, diese zusätzlichen kosten aufzubringen. Im Moment rentiert es sich meist einfach noch nicht, ein Spiel auf DualCore zu optimieren. Mit der Zeit wird das schon noch passieren. Vor allem ist ein Spiel ja nicht in den letzten drei Monaten entwickelt worden, sondern über das letzte Jahr hinweg. Da war Dualcore noch nicht standard. Also wurde auch nicht dafür entwickelt.
Also ich sehe das nicht so negativ wie Raff.
Wenn man sich mal überlegt, dass für beide großen desktop-cpu-schmieden der weg "mehrfachkerne" ja doch für die nächsten jahre fest steht und der hersteller der bei den spiele-pc doch recht häufig gekauft wird (zumindest noch :-)) ja noch nicht einmal eine dual-cpu anbietet, wo einem die ratio nicht verbietet, diese zu kaufen, so finde ich es eine verdammt gute nachricht, dass es schon jetzt eine engine gibt, die bis zu 60 % aus dem zweiten kern rausholt.
Mal ehrlich, ich hatte für 2007 mal gerade mit maximal 30 % gerechnet.
ich denke, dass die 60 % vom q4 1.2 patch viel höher zu bewerten sind als die gemutmaßten 20 % vom conroe.
Gast[/POST]']Also ich sehe das nicht so negativ wie Raff.
Wenn man sich mal überlegt, dass für beide großen desktop-cpu-schmieden der weg "mehrfachkerne" ja doch für die nächsten jahre fest steht und der hersteller der bei den spiele-pc doch recht häufig gekauft wird (zumindest noch :-)) ja noch nicht einmal eine dual-cpu anbietet, wo einem die ratio nicht verbietet, diese zu kaufen, so finde ich es eine verdammt gute nachricht, dass es schon jetzt eine engine gibt, die bis zu 60 % aus dem zweiten kern rausholt.
Mal ehrlich, ich hatte für 2007 mal gerade mit maximal 30 % gerechnet.
ich denke, dass die 60 % vom q4 1.2 patch viel höher zu bewerten sind als die gemutmaßten 20 % vom conroe.
Ich sehe es eher so, dass man das Spiel für 1 Core-CPUs unoptimiert lässt. Man könnte, wenn man wollte, genau so gut einen Patch bringen, der CPUs mit nur einem Kern um 50 % beschleunigt.
Ja den Conroe und Konsorten brauchen Wir damit haben unsere Prozessoren endlich wieder normale Temperaturen !
.
Gast[/POST]']Ich sehe es eher so, dass man das Spiel für 1 Core-CPUs unoptimiert lässt. Man könnte, wenn man wollte, genau so gut einen Patch bringen, der CPUs mit nur einem Kern um 50 % beschleunigt.
die fünfzig prozent halte ich für deutlich übertrieben zehn vielleicht auch fünfzehn prozent, aber irgendwann artet das dann doch in sisyphusarbeit aus.
dann lieber für dual-core optimieren, denn in zwei jahren wirst nicht mal mehr die absolute billig cpu nur noch einen kern haben.
sonst wird sich doch auch immer beschwert, dass die spiele-industrie die neuste hardware nur schleppend unterstützt...
viel können aber neue compiler und vor allem standtisierte schnittstellen wie DX10 rausholen
generell finde ich 20~% mehr nicht gerade viel
300-400% auf einem schlaf wären wirklich viel
der umstieg duch eine verdopplung ist doch mitlerweile schon fast standard und fast jeder hier nützt es sehr gerne
siehe Geforce 5 6 7 oder der umstieg von single auf dual core
MFG
tokugawa
2006-05-27, 05:14:58
Raff[/POST]']Das wiederum wird die Spieleentwickler wohl eher dazu treiben, weiterhin unoptimierten Code zu fabrizieren ... denn das aktuelle High-End wird's schon richten. Sauber!
Das muß man immer im Trade-Off sehen. Bei dir klingt das so negativ - aber die meisten Beispiele von "unoptimierten Code" haben dagegen einen Vorteil im Bezug auf Software-Design/Design Patterns, sowie Wartbarkeit/Reusability.
Meistens ist schönes Software-Design konträr zu "optimierter Code".
Und bei heutigen Produktionskosten und -Aufwand kann man sehr gut damit leben, nicht ganz so optimierten Code zu haben, aber dafür ist die Engine-Architektur dafür geeignet, auch in der nächsten Engine-Version mit der nächsten DirectX-Version wiederverwendet zu werden.
Also finde ich diese Weiter-Entwicklung bei CPUs gut. Die Entwickler müssen nicht noch weiter optimierten Code liefern, lieber wär mir schön designter, wartbarer Code. Das ist auch der Punkt wo sich in den letzten Jahren viel getan hat, da die Spiele-Entwickler mittlerweile ziemlich viel aus dem akademischen Bereich mitbekommen (während es früher eher irgendwelche autodidakten "Coder" aus der Demoszene waren, die allerdings nicht viel von Software-Design verstanden haben aber dafür superoptimierten Code geschrieben haben).
Mit "optimiertem Code" mein ich die extreme Hatz, das letzte Quäntchen und die letzten paar Zyklen rauszugewinnen. Das halte ich für unnütz wenn dadurch das Engine-Design und dessen Wartbarkeit leidet.
Optimiert im Sinn von "algorithmisch gut" (das eigentlich wichtige) sind Spiele heutzutage immer noch sehr gut.
stav0815
2006-05-27, 10:04:14
EL_Mariachi[/POST]']genau deswegen werde ich dieses Spielchen auch nicht mehr länger mitmachen und mich noch mehr auf Konsolen konzentrieren ...
dort sind die Spielehersteller gezwungen optimierten Code zu verwenden ...
... anders gesagt, macht es auf Konsolen halt auch Sinn, weil die Plattform sich über Jahre nicht ändert.
Für PCs zu optimieren, die alle 6-12 Monate gewaltig an Leistung zulegen macht irgendwie keinen Sinn ( aus Sicht der Spielehersteller )
Hinzu kommt, daß Software Hardware verkauft ...
Wer würde denn noch seinen PC aufrüsten, wenn ein P4 3.0 Ghz oder ein A64 2.0 Ghz ausreichend für alles wär? ... ( tombman mal aussen vor ;) )
Also ich weiss nich, ich hatte 3 Jahre lang einen 1,8Ghz Duron und ne GeForce 4 Ti4200 und konnte bis auf BF2 alles zocken. Es ist immer eine Frage des Anspruches, aber oftmals war sogar 1280x1024 mit etwas AA drin. Und ich hab 3 Jahre lang keinen Cent in mein System investiert.
Ergo: Es geht auch "ohne".
Kann ich nur bestätigen. Ein Kumpel von mir hat einen xp2000 und die ti 4200 und zockt das neue MoH und CoD 2 fröhlich vor sich hin. Ich wollte es erst nicht glauben, aber das sah nicht mal richtig scheiße aus und nicht mal 800x600 auflösung war es. ganz so schlecht scheint zu mindest bei diesen beiden spielen der code nicht zu sein.
fiktives Beispiel:
Ich zocke auf irgendeinen einem super highend-rechner einen brandneuen shooter mit allem auf max. Dann gehe ich kurz pinkel. in der zeit stellt jemand die details runter sagen wir, die schatten auf min und die shader und texturen auf medium. af ganz aus. Ich glaube, so lange er nicht die auflösung und das AA runter stellt würde ich bei der hektik eines shooters null davon mitkriegen.
meine meinung
Die meisten hier sind einfach zu verständnisvoll. ;) Solange das so ist, kann sich auch garnichts tun ...
tokugawa[/POST]']Mit "optimiertem Code" mein ich die extreme Hatz, das letzte Quäntchen und die letzten paar Zyklen rauszugewinnen. Das halte ich für unnütz wenn dadurch das Engine-Design und dessen Wartbarkeit leidet.
Optimiert im Sinn von "algorithmisch gut" (das eigentlich wichtige) sind Spiele heutzutage immer noch sehr gut.
Nun, ich habe nie eine Engine programmiert. Es scheint auch hier eine Kunst zu sein, diese beiden Eigenschaften zu vereinen. Genauso ist es eine Kunst, auch mit weniger Effekthascherei super Optik zu bauen. Und so "billig" die aktuelle Doom-Engine auch manchmal aussehen mag: Offenbar haben es Carmack & Co. noch immer drauf. Zwar nicht unbedingt optisch immer phänomenal, aber dafür jetzt mal "arithmetisch gut". :)
Gast[/POST]']Kann ich nur bestätigen. Ein Kumpel von mir hat einen xp2000 und die ti 4200 und zockt das neue MoH und CoD 2 fröhlich vor sich hin. Ich wollte es erst nicht glauben, aber das sah nicht mal richtig scheiße aus und nicht mal 800x600 auflösung war es. ganz so schlecht scheint zu mindest bei diesen beiden spielen der code nicht zu sein.
CoD 2 hat einen DX7-Modus, der um Welten besser läuft, aber vergleichsweise ärmlich aussieht. Im DX9-Modus fährt das Spiel Grafik-Geschütze auf, die durchaus beeindrucken.
Gast[/POST]']fiktives Beispiel:
Ich zocke auf irgendeinen einem super highend-rechner einen brandneuen shooter mit allem auf max. Dann gehe ich kurz pinkel. in der zeit stellt jemand die details runter sagen wir, die schatten auf min und die shader und texturen auf medium. af ganz aus. Ich glaube, so lange er nicht die auflösung und das AA runter stellt würde ich bei der hektik eines shooters null davon mitkriegen.
meine meinung
Schön war's ... ;D Sag das mal einem wie mir, dem das kleinste Flimmern negativ auffällt ...
MfG,
Raff
Na dann lass das af halt an. merken würdes du es dann trotzdem nicht. außer du guckst dir die frames an. die dürften wohl so ums doppelte liegen.
Ich habe gerade im conroe thread gelesen: " und bis zur mitte nächsten jahres hält meine cpu auch noch" der hatte laut sig einen x2@2.7 GHz.
Das ist doch alles völlig übertrieben. Ich habe seit anfang 2004 einen der ersten a64 3000. vor zwei wochen habe ich einem kumpel einen neuen pc zusammen gestellt, der etwa in der gleichen preisklasse war wie meiner. (okay ein bißchen günstiger war er schon) aber als cpu hat der jetzt den san diego mit 2.2 GHz.
Die cpu ist vielleicht mal maximale 20 % schneller als meine. D.H. wenn ich in einem spiel/setting 20 frames habe, dann hat er 24! LOL! meine cpu wird noch locker 1,5 Jahre halten und dann hatte ich sie 4 Jahre lang!!!
Crazy_Chris
2006-05-27, 12:15:18
Seit doch froh das sich endlich nach dieser längeren Durststrecke etwas in Sachen CPU Leistung tut. Wenn man mal Dual Core außen vor lässt dann hat sich die Leistungsfähigkeit der CPUs in den letzten 3-4 Jahren nur mäßig gesteigert.
Alleine im Zeitraum von 1997 bis 2000 haben sich die Taktraten verfünffacht! (z.B. P 200MMX -> Athlon 1Ghz) Und was war in den letzten Jahren? Die Leistung hat sich bestenfalls um 40% erhöht.
Da nunmal 90% der Software nicht auf Multiprozessorsysteme optimiert ist bringen DC CPUs eben noch nicht so viel. Eine weitere Leistungssteigerung der einzelnen Cores selber ist mir da viel lieber und diese bringt der Conroe. Und trotzdem wird gemeckert!? :| :confused:
Die Leistung hat sich eher gar nicht gesteigert. :)
Wer damals einen 3,4 GHz Northwood gekauft hat, für den gibt es momentan keinen wesentlich schnelleren Intel Prozessor.
Das ist ja das ärgerliche daran: Da wartet man Jahre lang und dann kann man nur das gleiche Produkt mit gleicher Taktrate, aber im Doppelpack kaufen, von dem man schon vorher weiß, das es bei gängigen Anwendungen genauso schnell oder gar noch langsamer sein wird.
Interessanter Vergleich wie ich finde:
http://tomshardware.thgweb.de/charts/prozessoren.html?modelx=33&model1=224&chart=71&model2=329
3,4 GHz Northwood nur unwesentlich langsamer, als Intels neueste, mindestens fünf mal so teure 3,73 GHz Dual Core Extreme Edition.
Hier liegt er sogar fast gleichauf mit einem 3,8 GHz Prescott:
http://tomshardware.thgweb.de/charts/prozessoren.html?modelx=33&model1=224&chart=66&model2=207
Das nenne ich Rückschritt. Transistorenmonster braucht die Welt nicht, die einfachheit ist der schlüssel zum Erfolg.
Vielleicht ist der Schritt von Intel, alle 2 jahre eine neue Architektur bringen zu wollen, gar nicht mal so falsch, denn durch minimale Verbesserungen allein kommt man nichts vorwärts.
Also bei THG würde ich niemals Benchmarks vergleichen, ebenfalls kommt bald der Conroe d.h. die alte Generation wird ziemlich schnell weggeblasen, wenn man es so sieht.
Ich vergleiche nicht bei THG, aber die haben als einzige auch alte CPUs getestet.
Die Ergebnisse ansich stimmen. So ein Northwood 3,4 entspricht in etwa einem Prescott ~3,6-3,8 GHz, außer in Multimedianwendungen (wegen z.B. SSE3).
Daran sieht man es auch... einen Northwood 3,4 gegen einen 3,4 GHz Dual Core zu tauschen, macht wenig Sinn, da die Leistung sich kaum verbessert, nur der zweite Kern dazu kommt.
Finde ich sehr enttäuschend, denn die erstgenannte CPU konnte man schon etwa 2002 kaufen. :)
Bei AMD ist das wegen dem A64 natürlich anders, der hat den AXP gut abgelöst, so wie der Conroe bald den P4 ablösen wird.
Die Frage wird sein, ob diesen auch in Zukunft das gleiche Schicksal ereilen wird, und wir dann ein paar Jahre bei einer bestimmten Taktrate festhängen? Ich hoffe nicht, denn man muss auch ganz klar sehen, das mehr CPU Leistung nicht nur für Spiele wichtig ist, auch die Wissenschaft profitiert davon.
Bitsurfer
2006-05-27, 13:08:48
Gast[/POST]']Ich vergleiche nicht bei THG, aber die haben als einzige auch alte CPUs getestet.
Die Ergebnisse ansich stimmen. So ein Northwood 3,4 entspricht in etwa einem Prescott ~3,6-3,8 GHz, außer in Multimedianwendungen (wegen z.B. SSE3).
Daran sieht man es auch... einen Northwood 3,4 gegen einen 3,4 GHz Dual Core zu tauschen, macht wenig Sinn, da die Leistung sich kaum verbessert, nur der zweite Kern dazu kommt.
Finde ich sehr enttäuschend, denn die erstgenannte CPU konnte man schon etwa 2002 kaufen. :)
Bei AMD ist das wegen dem A64 natürlich anders, der hat den AXP gut abgelöst, so wie der Conroe bald den P4 ablösen wird.
Die Frage wird sein, ob diesen auch in Zukunft das gleiche Schicksal ereilen wird, und wir dann ein paar Jahre bei einer bestimmten Taktrate festhängen? Ich hoffe nicht, denn man muss auch ganz klar sehen, das mehr CPU Leistung nicht nur für Spiele wichtig ist, auch die Wissenschaft profitiert davon.
Na ja, es geht wohl eher Richtung Multi-Core statt Dual-Core. AMD werkelt ja auch schon am Quad-Core. Intel behauptet, in 10 bis 20 Jahren haben wir Prozessoren mit über 100 Cores.
Also, was früher "echte GHz" waren, wird in Zukunft "echte Cores" :smile:
Bitsurfer[/POST]']Na ja, es geht wohl eher Richtung Multi-Core statt Dual-Core. AMD werkelt ja auch schon am Quad-Core. Intel behauptet, in 10 bis 20 Jahren haben wir Prozessoren mit über 100 Cores.
Also, was früher "echte GHz" waren, wird in Zukunft "echte Cores" :smile:
Intel behauptete ja auch, dass man mit Netburst die 10 GHz-Marke knacken wollte. Geschafft hat man 3,73 (als Extreme Edition - also selektierte CPUs) mit einem unvergleichlichen Energieverlust.
Es gibt noch einen 3,8-er. *korinthenkack* :)
MfG,
Raff
Bitsurfer
2006-05-27, 14:09:46
Raff[/POST]']Es gibt noch einen 3,8-er. *korinthenkack* :)
MfG,
Raff
Ich hab nen 3,6 GHz 560er (Schnittplatz), den konnte ich erst mit nem Thermaltake Big Typhoon bändigen, beim Boxed-Intel-Kühler schaltete sich die CPU nach 2min Adobe MPegpro aus (Takt-Aussetzer) bei Temps von ca. 80 Grad.
Aber ich muß Raff zustimen, es wird immer weniger optimiert. Habe zur Zeit einen Toledo 3700+ Single Core, dieser ist, warum auch immer, tatsächlich schneller als ein X2 4400+ in diversen Spielen, dabei ist ein X2 4400+ praktisch ein doppelter 3700+. Irgendwie scheinen bestimmte Programme und Spiele sogar von nem Dual-Core gebremst zu werden.
Bitsurfer
2006-05-27, 14:12:55
Gast[/POST]']Intel behauptete ja auch, dass man mit Netburst die 10 GHz-Marke knacken wollte. Geschafft hat man 3,73 (als Extreme Edition - also selektierte CPUs) mit einem unvergleichlichen Energieverlust.
Tja, dann landen sie statt bei 100 dann halt bei 50 Cores. Das Problem wird sein, wie man den Leuten erklärt, das 25 AMD Cores schneller sind als 50 Intel Cores?
Ich sehe schon bunte Aldi und E-Center Kartons mit der Aufschrift "50 echte Cores" "kein HT" etc.
Wird schon witzig werden.
sunnyboy
2006-05-27, 14:24:29
Ich sehe das ganze ähnlich wie die meisten hier, sogar noch schlimmer.
Auch als jeder von uns eine DC-CPU haben wird, werden die Spiele-Programmierer keine besseren Codes basteln als jetzt. Und ob das eine oder andere Spiel auf DC optimiert ist oder nicht wird keiner messen können, es wird ja bald keine SC-Prozzis mehr geben ;) So ist dann kein Vergleich mehr möglich, so ein Bullshit. Die Welt braucht keine DC's, einfach unwirtschaftlich das ganze, meiner Meinung nach.
sunnyboy
Crazy_Chris
2006-05-27, 14:33:18
sunnyboy[/POST]']Die Welt braucht keine DC's, einfach unwirtschaftlich das ganze, meiner Meinung nach.
sunnyboy
Dir ist schon klar ohne Mehrprozessorsysteme praktisch garnichts gehen würde? Alleine dieses Forum würde auf einem Einprozessorsystem warscheinlich sogar Nachts um halb 4 laggen. :| ;D
Bitsurfer[/POST]']Tja, dann landen sie statt bei 100 dann halt bei 50 Cores. Das Problem wird sein, wie man den Leuten erklärt, das 25 AMD Cores schneller sind als 50 Intel Cores?
Ich sehe schon bunte Aldi und E-Center Kartons mit der Aufschrift "50 echte Cores" "kein HT" etc.
Wird schon witzig werden.
Ich zweifle daran, dass in 10 Jahren 50 oder sogar 100 Cores auf einen Wafer passen werden. Man wird vielleicht 8 Cores auf einen Waffer unterbringen und dann Multi-CPU-Systeme mit beispielsweise 4 solcher CPUs anbieten.
Aber wenn man schon an mehrere Cores auf mehreren CPUs und an mehrere Grafikkarten mit mehreren GPUs denkt, sollte man auch an mehrere Netzteile denken.
ollix
2006-05-27, 16:02:21
Wir? Keine Ahnung, ich wohl noch nicht :)
Mein AMD Winchester 3000+ läuft primestable auf 2,6GHz, ich lasse ihn aus Langeweile aber dennoch auf seinen 1.8Ghz Standardtakt laufen. Habe mir gedacht, wenn ich die Leistung irgendwann mal brauche, kann ich immernoch hochtakten; das ist jetzt aber schon 1 1/2 Jahre her.
BlackBirdSR
2006-05-27, 16:18:01
Gast[/POST]']Ich zweifle daran, dass in 10 Jahren 50 oder sogar 100 Cores auf einen Wafer passen werden. Man wird vielleicht 8 Cores auf einen Waffer unterbringen und dann Multi-CPU-Systeme mit beispielsweise 4 solcher CPUs anbieten.
Aber wenn man schon an mehrere Cores auf mehreren CPUs und an mehrere Grafikkarten mit mehreren GPUs denkt, sollte man auch an mehrere Netzteile denken.
Ich denke du meinst 50 oder 100 Kerne pro "die".
Denn AMD gibt an, dass sie pro 300mm Wafer ca 690 DualCore-Dies bekommen.
Bullz
2006-05-27, 16:21:10
stav0815[/POST]']Also ich weiss nich, ich hatte 3 Jahre lang einen 1,8Ghz Duron und ne GeForce 4 Ti4200 und konnte bis auf BF2 alles zocken. Es ist immer eine Frage des Anspruches, aber oftmals war sogar 1280x1024 mit etwas AA drin. Und ich hab 3 Jahre lang keinen Cent in mein System investiert.
Ergo: Es geht auch "ohne".
Genau so was kann man vergessen. Die meisten heutigen Spiele leben wirklich meistens von der Grafik. Ich habe auch immer mit einem drecks Rechner gezockt. Habe mit damit Spiele wie Ultima 9 etc kaput gemacht. Wenn mans einmal durchspielt machen die wenigstens spiele noch mal Spass. Jedenfalls mir. Ich habe jedenfalls drauf gelernt. Obvilion habe ich nur ganz kurz angeschaut. Spielen werde ich es erst wenn ich es auf vollen Detials spielen kann und nicht vorher...
@ an den Rest:
Warum geht ihr immer davon aus das aktuelle Hardware alle Detials + hoher Auflösung + Kantenglättung schaffen muss ? Ihr müst nicht auf max Detials spielen. Wenn ihr das aber wollt müsst ihr euch dann halt die Hardware der nächsten Generation kaufen und dann das Game dann später spielen. Dafür sieht das Game dann auch super aus. Die Entwicklicker hätten ihre Spiele sicher auch schneller machen können ( ich meine da nicht die Optimierungen ) sondern einfach weniger Detials einbauen. Und dann würde es halt nur 90 % so gut aussehen und es würde von euch hier auch keiner Meckern dann ..
Doch, man "muss" mit maximalen Details spielen, wenn man schon Unmengen an Kröten in die eigene Mühle steckt. Als aktuell nur spielender Zweikern-User käme ich mir schon gründlich verarscht vor. Natürlich steht es einem frei, sich vorher zu informieren. ;) Da ich keine Videos oder ähnliches bearbeite, habe ich auch noch einen Single-Core.
Beispiel Oblivion: Das Teil ruckelt mit maximalen Details an einigen Stellen erbärmlich, weil praktisch jede CPU zu langsam ist (A.Weskers 3,3 GHz Yonah mal außen vor ;D). Nun, woran liegt das? Daran, dass die Hardware zu lahm ist ... oder sind doch die Entwickler zu bequem? Sehe ich nicht ein.
Dass Spiele auf Single-Cores ruckeln, das muss man wohl so hinnehmen ... denn da ist das Potenzial nicht so offensichtlich.
MfG,
Raff
tombman
2006-05-27, 18:02:45
Die Spiele die 2006 rauskamen wurden ganz sicher nicht für dual core optimiert, da dual core einfach zu neu ist. Keine Panik Leute, das kommt schon noch, 2007/2008 wird die Situation sicher schon deutlich besser aussehen, allein deshalb weil Xbox360 und PS3 auch multicore Maschinen sind. Es gibt für die devs bald keinen "Ausweg" (;D) mehr, multithreaded zu proggn ;)
tombman
2006-05-27, 18:05:43
Raff[/POST]'] weil praktisch jede CPU zu langsam ist (A.Weskers 3,3 GHz Yonah mal außen vor ;D).
Und mit Conroe werden bald sehr viele so eine ähnliche Leistung haben ;)
Genau das macht mir ja Angst. ;) Und Dual-Core gibt's ja übrigens "erst" seit einem Jahr ... die Basis dürfte im Laufe der Zeit stark gewachsen sein.
MfG,
Raff
es ist doch schön dass oblivion in 5 jahren (mit grafikmods) noch immer der hammer sein wird
ich finde es immer wieder geil wenn alte games noch hammermässig aussehen
siehe far cry UT 2003/2004 C&C Tiberian Sun NFS Porsche etc.
daher schätze ich es schon wenn die grafik richtig gut ist und auch morgen noch gut ist
aber es ging ja um prozessoren und da könnte ich gut die 10 fache leistung mit 8 cores brauchen
1080i TV wiedergabe und aufnahme gleichzeitig mit anschließender codierung in divx
man könnte alles andere laufen lassen wenn man ein spiel aufmacht
2 monitore auf dem einen kann ich zocken und auf dem anderen läuft das system nebenher
CS-S mit 64 spielern und lost coast grafik
der eigene server läuft noch auf der standleitung
etc.
oder beim entpacken von so manchen files dauert es teilweise auch ewig
es schreien immer alle nach optimierungen und noch mehr optimierungen aber würdet ihr auch bereit sein den preis dafür zu zahlen?
würden spiele wirklich bis aufs letzte optimiert, dann würde sich die eh schon sehr lange entwicklungszeit noch mehr in die länge ziehen. die folge wären einerseits deutlich höhere preise (und es wir ja schon heute gemeckert dass die preise viel zu hoch sind), andererseits wird das release-datum soweit nach hinten verschoben dass die hardware auch für den unoptimierten code mehr als schnell genug ist.
wir sind heute in einer zeit in der rechenleistung vergleichsweise billig zu haben ist, manpower aber immer teurer wird.
es wird daher immer wichtiger dass der user des computers möglichst effizient arbeitet, und nicht die cpu.
mit user denk ich sowohl an programmierer, als auch an enduser (in diesem zusammenhang natürlich einen arbeitenden enduser und nicht einen spielenden ;) )
auf der seite des endusers kann das ja jeder von uns nachvollziehen. wir haben heutzutage grafische oberflächen, obwohl diese viel "unnütze" rechenleistung schlucken, aber die bedienung geht natürlich viel einfacher und intuitiver. wir haben betriebssysteme die darauf getrimmt sind die interaktion mit dem benutzer möglichst einfach und schnell zu machen und nicht unbedingt die cpu bestmöglichst auszulasten.
es ist beispielsweise in einem programm wie excel wesentlich wichtiger dass man sich einfach und schnell eine formel über eine entsprechende oberfläche zusammenbauen kann, als die effizienz beim ausrechnen dieser.
im prinzip ist die entwicklung auf programmiererseite ähnlich.
es ist wichtig, dass ein problem möglichst schnell, gut wartbar und am besten noch in einem code den auch ein anderer programmierer, der damit nichts zu tun hatte schnell versteht.
wiederkehrende probleme sollten dabei möglichst allgemeingültig gelöst werden, so dass man den code nach möglichkeit auch bei einem anderen projekt leicht weiterverwenden kann.
klar bleibt dabei ein wenig an effizienz der eigentlichen berechnung liegen.
auch für den enduser ist es so besser. zwar sieht es erstmals so aus, als würde man dadurch gezwungen öfter aufzurüsten und damit mehr geld auszugeben.
der andere weg, nämlich software möglichst effizient zu programmieren wäre aber noch deutlich teurer, zwar hätte die hardware dann eine längere "haltbarkeit", die software wäre dann aber absolut unbezahlbar, und das ganze system im endeffekt noch teurer.
Kinman
2006-05-27, 23:21:07
Seid ihr euch alle so sicher das die Spiele heute dermaßen unoptimiert sind? Vielleicht braucht Oblivion oder X3 wirklich mal die Rechenpower für Berechnungen und verschwendet sie nicht in unoptimierten Code.
mfg Kinman
AnarchX
2006-05-27, 23:26:24
Kinman[/POST]']Seid ihr euch alle so sicher das die Spiele heute dermaßen unoptimiert sind? Vielleicht braucht Oblivion oder X3 wirklich mal die Rechenpower für Berechnungen und verschwendet sie nicht in unoptimierten Code.
Bei Oblivion oder X3 besteht das Problem, dass diese Spiele extrem komplex sind und das ist Optimieren bei weitem nicht so einfach, weil so sehr schnell Fehler resultieren können die man in der Verknüpfung der Vielzahl von Operatoren nicht so einfach aufspüren kann.
Aus meiner Sicht kann man eben nicht mehr optimieren um noch wirtschaftlich zu bleiben.
Wechselbalg
2006-05-28, 00:53:18
Zumindest sind sehr viele Spiele in der Art von Oblivion doch sehr CPU gebunden, so dass ich mir da eigentlich gar nicht so sicher bin, ob es so derart schlecht programmiert ist. Schon Morrowind war (erst recht mit erhöhter Sichtweite) so, Gothic 2 hat ja auch ein paar Stellen, wo auch heutige Top CPUs schwitzen und Everquest 2 zählt auch zu den forderndsten Spielen in meinen Augen. Auch DAOC ist bei größeren Gefechten sehr ressourcenhungrig und das alles so schlecht programmiert ist, kann ich mir auch nicht vorstellen.
Generell würde ich mir natürlich auch wünschen, dass mehr Optimierungsarbeit betrieben wird und generell eher auf einen guten Austausch von Leistung und Optik geachtet wird, aber ich würde jetzt nicht vermuten, dass dies durch neue Prozessorgenerationen extrem ins Hintertreffen gerät. Auch ein Entwickler will ja sicherlich lieber auch noch Leute erreichen, die etwas ältere Hardware haben.
Raff[/POST]']Genau das macht mir ja Angst. ;) Und Dual-Core gibt's ja übrigens "erst" seit einem Jahr ... die Basis dürfte im Laufe der Zeit stark gewachsen sein.
Mal ne ganz andere Perspektive: Wenn jetzt doch alle anderen Geräte durch den zentralen PC ersetzt werden, wird ja schon einiges an Leistung gebraucht. Wenns nach Intel geht, soll der PC am besten im Wohnzimmer stehen und sich um Video, Audio, Spiele, Anwendungen, Telefon und sonst was alles kümmern. Wenn man das alles zusammenlegt und vielleicht diese Vision vom komplett elektronischen Haus mit einbezieht, dürfte es ganz gut sein, dass es immer mehr Rechenleistung gibt. Ein ganz gutes Beispiel ist das Auto. Da gibt es immer mehr elektronische Systeme, die den Fahrer unterstützen sollen. In solchen Fällen sind vor allem Multicores von Vorteil.
Wenn man aber z.B. nur an den Office-PC denkt, ist das natürlich Unsinn. Da sollte man vielleicht eher die gestiegene Rechenleistung dazu nutzen, um das ganze in Form kleinerer Geräte zu realisieren.
RavenTS
2006-05-28, 00:59:10
Gast[/POST]']... immer wieder geil wenn alte games noch hammermässig aussehen
siehe far cry UT 2003/2004 C&C Tiberian Sun NFS Porsche etc.
daher schätze ich es schon wenn die grafik richtig gut ist und auch morgen noch gut ist
...
UT und NFS Porsche ja, da kann man heute mit AA, AF und hoher Auflösung viel rausholen, aber Tiberian sun.?! :|
sun-man
2006-05-28, 10:56:25
Also ich weiß ja nicht. Spiele wie Oblivion sollte man einfach ignorieren wenn der Hersteller es nicht versteht wie es es geht oder einfach nur an die Kohle will. Sieht man ja, kein Patch und nix. Bethesda eben.
Ich denke nicht das Multicores die Lösung sind. Wofür sollte man im Wohnzimmerpc 10 Cores haben wenn einer davon nur fürs Radio zuständig ist ? Hier werden, ähnliche den PDAs, spezielle Chips auch spezielle Aufgaben erledigen. HDTV und Co benötigen dafür sicherlich mehr Power - allerdings ist ein StrongArm im Palm auch mit deutlich weniger MhZ einfach besser als einer in nem PDA der noch das ganze unseelige Windowsgeraffel mitschleppen muß.
Hey, schaut doch mal auf die Anforderungen von Vista. Das ist NUR ein Betriebssystem. Wer das nun unbedingt haben möchte - bitte sehr, Prozessoren udn dergleichen gibts dafür mehr als genug, dann aber bitte nicht meckern wenn man für Minesweeper in 3D 3GhZ und nen 300€ Grafikbeschleuniger benötigt. Die abhängigkeit von Windows liegt nicht alleine nur an Windows. Hier hat der Benutzer das letzte Wort. Wer kennt noch den Intel BTX Standard? Na? Wo isser jetzt und wie hat er sich durchgesetzt? Der war ja, im Gegensatz zu anderem, sogar recht schlau und durchdacht IMHO. Wir hängen halt weiter die fetten Lüfter und den Grafikkarten auf udn blockieren und damit Slots, is ja auch logisch ;).
MFG
Hey, schaut doch mal auf die Anforderungen von Vista.
Ja und Vista benötigt etwa:
- ab etwa 1000 MHz (Pentium/Celeron)
- 1024 Ram
- 128 MB Grafikkarte (eine einfache von letzten genügt schon)
Damit kann man Windows Vista genauso gut nutzen wie heute Windows XP !
paul.muad.dib
2006-05-28, 11:45:39
Wenn ich mir Echtzeitstrategiespiele anschaue, bin ich überzeugt, dass CPUs gar nicht schnell genug sein können. Zeigt mir die CPU, mit der ich beim 1 1/2 Jahre alten Rome die Einheitengröße auf "riesig" stellen kann. >20.000 Soldaten auf dem Schlachtfeld schafft einfach keine.
Auch in anderen RTS gehen die frames in den Keller, wenn mal ein paar mehr Einheiten auf der Karte sind. Oder was ist mit Soft-Shadows in FEAR? ICh will einen Conroe auf 4 Ghz!
Oder was ist mit Soft-Shadows in FEAR?
das hängt aber an der graka ;)
sun-man
2006-05-28, 12:06:23
Gast[/POST]']Ja und Vista benötigt etwa:
- ab etwa 1000 MHz (Pentium/Celeron)
- 1024 Ram
- 128 MB Grafikkarte (eine einfache von letzten genügt schon)
Damit kann man Windows Vista genauso gut nutzen wie heute Windows XP !
Schöne Aufzählung der Minimalkonfiguration ohne jegliche Effekte. Ich brauch die nicht, keine Frage aber hier gehts auch im Oblivion beispielsweise.
Schöne Aufzählung der Minimalkonfiguration ohne jegliche Effekte.
Ja und habe doch genau geschrieben:
' Damit kann man Windows Vista genauso gut nutzen wie heute Windows XP ! '
Also die meisten 1 bis 3 Jahre jungen Rechner (bis auf den Arbeitsspeicher vielleicht),
wenn Windows Vista 'mit Glück' im Frühjahr/Sommer 2007 im Handel kommt !
sun-man
2006-05-28, 12:30:09
Um die grundlegenden Funktionen von Vista in Betrieb nehmen zu können, setzt Microsoft einen Prozessor mit einer Taktgeschwindigkeit von 800 MHz voraus. Außerdem, so die Angaben, werden 512 MB Arbeitsspeicher und 15 GB freier Speicherplatz auf der Festplatte benötigt. Als Grafikkarte wird ein DirectX-9-fähiges Modell verlangt. Eine große Speicherausstattung sowie die Unterstützung des Windows Display Driver Model (WDDM) ist keine Voraussetzung für den Betrieb. PCs, die diese Spezifikationen beinhalten, werden von Microsoft als „Windows Vista Capable“ bezeichnet.
.
.
.
15GB für ein Betriebssystem in den grundlegenden Zügen :D (aber darum gehst hier ja nicht). Dennoch dürfte das ganze dann so zäh sein als wenn ich mein Notebook mit 600MHz udn XP samt boot.ini Einstellung mit 256MB Ram boote.
Anyway, wir versklaven uns doch mit dem wachsenden Hunger nach neuen Spielereien selber, das ist alles. Vista bräuchte keiner und wird in 2 Jahren trotzdem bei vielen laufen.
MFG
Deathcrush[/POST]']@RAFF
Da gebe ich dir vollkommen recht. Ich habe mir jetzt noch mal einen X2 gekauft der dann wohl für die nächsten 1 1/2 Jahre locker reichen dürfte. Mein Venice hat vorher auch recht lange gehalten, wenn ich da so an meine Grakas denke ^^. Die wird alle halbe Jahr ersetzt, auch um dem Verlust ein bisl entgegen zu wirken. So zahle ich vielleicht 50€ für eine neue Graka frauf. Ausserdem kaufe ich mir schon aus Protest kein Intel ;)
selbst schuld,dann bleib auf deiner lahmen kiste eben hocken ! du proteslter...
RavenTS
2006-05-28, 15:27:02
Gast[/POST]']selbst schuld,dann bleib auf deiner lahmen kiste eben hocken ! du proteslter...
Wie konstruktiv... :| :P
Piffan
2006-05-28, 15:55:12
Mogul[/POST]']Also ich weiß ja nicht. Spiele wie Oblivion sollte man einfach ignorieren wenn der Hersteller es nicht versteht wie es es geht oder einfach nur an die Kohle will. Sieht man ja, kein Patch und nix. Bethesda eben.
Ich denke nicht das Multicores die Lösung sind. Wofür sollte man im Wohnzimmerpc 10 Cores haben wenn einer davon nur fürs Radio zuständig ist ? Hier werden, ähnliche den PDAs, spezielle Chips auch spezielle Aufgaben erledigen. HDTV und Co benötigen dafür sicherlich mehr Power - allerdings ist ein StrongArm im Palm auch mit deutlich weniger MhZ einfach besser als einer in nem PDA der noch das ganze unseelige Windowsgeraffel mitschleppen muß.
Hey, schaut doch mal auf die Anforderungen von Vista. Das ist NUR ein Betriebssystem. Wer das nun unbedingt haben möchte - bitte sehr, Prozessoren udn dergleichen gibts dafür mehr als genug, dann aber bitte nicht meckern wenn man für Minesweeper in 3D 3GhZ und nen 300€ Grafikbeschleuniger benötigt. Die abhängigkeit von Windows liegt nicht alleine nur an Windows. Hier hat der Benutzer das letzte Wort. Wer kennt noch den Intel BTX Standard? Na? Wo isser jetzt und wie hat er sich durchgesetzt? Der war ja, im Gegensatz zu anderem, sogar recht schlau und durchdacht IMHO. Wir hängen halt weiter die fetten Lüfter und den Grafikkarten auf udn blockieren und damit Slots, is ja auch logisch ;).
MFG
Irgendwie schmeißt Du derart viel in dein Posting hinein, dass man den roten Faden nicht recht sehen kann.........
Das Beste ist wohl immer noch DOS, damit null Ressourcen für Schnickschnack verprasst werden. Oder was jetzt?
Zum Teil klingt vieles hier nach Stammtischgenöle....Sorry, aber irgendwie kann ichs nicht nachvollziehen....
Gothic 1: Wah, das läuft ja kaum auf den schnellsten Maschinen....
Gothic 2: Absolut kein Verhältnis zwischen Performance und Optik....
Oblivion: Die Penner wollen/können einfach nicht programmieren....
The same procedere as every year.....
Soderle: Wer jetzt mal wieder ein älteres Spiel rauskramt wie Mafia oder Gothic 2 kriegt Augenkrebs, wenn er wie ich an die 200 h Olbivion gezockt hat.
Schnellere Systeme: Jaaaa! Es lohnt sich. :D
Multithread mag hier und da was bringen, aber niemal ne Verdoppelung der Performance. Wie viel es letztlich ist, hängt wohl so ziemlich von der Engine ab und ob die voneinander abhängende Vorgänge in hoher Zahl bewältigt und entsprechend eine Parallisierung nicht wirklich leicht durchzuführen ist.
Bei der Doom- Engine ist die Physik ja so ziemlich Fehlanzeige, die meisten Ressourcen werden wohl in die Grafik gesteckt. Da kann man gut auf verschieden Threads verteilen. Schlechter schon, wenn da richtig Physik reinkommt, denn da besteht wechselseitige Abhängigkeit von Grafik und Physik. Wenn man mehr als nur reine Effektphysik betreibt, die man zur Not auch auf die Shader der Graka legen kann, dann ist Multithreading recht knifflig..........die Progger werden sich erst langsam das Knowhow erwerben müssen.
sun-man
2006-05-28, 16:36:46
Irgendwie schmeißt Du derart viel in dein Posting hinein, dass man den roten Faden nicht recht sehen kann.........
Das Beste ist wohl immer noch DOS, damit null Ressourcen für Schnickschnack verprasst werden. Oder was jetzt?
Zum Teil klingt vieles hier nach Stammtischgenöle....Sorry, aber irgendwie kann ichs nicht nachvollziehen....
Naja, ein Betriebssystem welches 15GB am Platenplatz alociert oder zumindest beansprucht KANN ja nun kaum ressourcendschonend sein. Alte Sachen rauswerfen, den eigenen Anspruch etwas runterschreuben und nicht Treiber für die Hardware der letzten 10 Jahre reinpacken und schon sind es nur noch 5GB :D, grafischen Schnickschnak rauswerfen und auf eine geordenete und brauchbare Oberfläche ohne DX10/9 Effekte setzen und schon sind es nur noch 3GB. Aber naja, die User kaufen es schon.
Stammtischgenöle? Ich denke nicht. Unser Solaris ist auch größer geworden, aber Solaris10 benötigt GANZ sicher keine 15GB (für was sind die eigentlich ??), sieht unter Gnome genausogut aus und ist auch brauchbar. Klar, zocken geht nicht oder nur eingeschränkt. Ich kann, im Gegensatz zu vielen Windowsusern, doch ein ganz klein wenig über den Tellerrand schauen und weiß das es anders geht.
Wenn ich mir nen Porsche kaufe möchte ich nicht das der Verkäufer noch 500kg Zusatzgewicht reinpackt, ich dann aber die große Maschine nehmen muß um mithalten zu können.
Was genau verstehst Du daran nicht?
MFG
HD-Ronny
2006-05-29, 04:48:03
Sorry fürs aufwärmen:
SW: Empires at War ruckelt wie Sau !!!
AoE3 auch.Und das bei einer X1800XT. Wer es nicht sehen will,der sieht es nicht.
Ende.
Piffan
2006-05-29, 07:34:36
HD-Ronny[/POST]']Sorry fürs aufwärmen:
SW: Empires at War ruckelt wie Sau !!!
AoE3 auch.Und das bei einer X1800XT. Wer es nicht sehen will,der sieht es nicht.
Ende.
Sorry, aber beide Spiele sind CPU- lastig. Und da wird auch die schnellste Grafikkarte nichts dran ändern können. Dafür kann man halt AF/FSAA einstellen, ohne dass die Peformance noch weiter leidet....
][immy
2006-05-29, 07:46:19
Piffan[/POST]']
Gothic 1: Wah, das läuft ja kaum auf den schnellsten Maschinen....
Gothic 2: Absolut kein Verhältnis zwischen Performance und Optik....
Oblivion: Die Penner wollen/können einfach nicht programmieren....
The same procedere as every year.....
Soderle: Wer jetzt mal wieder ein älteres Spiel rauskramt wie Mafia oder Gothic 2 kriegt Augenkrebs, wenn er wie ich an die 200 h Olbivion gezockt hat.
nö, nicht im geringsten. ich spiele gerne noch die alten pc-spiele.
Ob es nun "Star Trek: A Final Unity" oder Gothic 1/2 ist spielt da für mich keine rolle. es geht mir dabei um den spielspass und der ist nachwievor sehr hoch. gerade bei gothic lebt das spiel von der athmosphäre. daran ist zwar auch die grafik beteiligt, aber sie ist es nicht allein. und besonders bei gothic kann mal die kleine bild-verschönerer nutzen wie SSAA & AF ohne das das spiel langsamer wird da es sogut wie gar nicht grafik-limiert ist auf heuten karten. die CPU-power scheint einfach nur so zu verpuffen, das ist wohl wahr. das scheint aber ehe engine-bedingt zu sein und wird wohl auch by-design so gedacht gewesen sein. denn schließlich ist das spiel für ältere system entwickelt worden und nicht für heutige.
@HD-Ronny
Empire at war ruckelt bei mir kein bisschen (in höchsten details). habe nen 2,25 Ghz Athlon 64, ne Geforce 6800GT und 2GB speicher (@200Mhz), von daher kann ich nicht wirklich verstehen warum es bei dir ruckeln sollte.
@topic
in der computer-geschichte war es ansich schon immer so und wird es auch so bleiben. zwar werden die schritte immer größer (im vergleich zu den vorherigen) aber das kann auch nur gut für den endkunden sein, denn so werden die alten produkte günstiger (oder sollten sie zumindest). Wenn man mehrere Jahre sicherheit will, dann sollte man sich eine Konsole kaufen (welche aber auch immer schneller erneuert wird)
Piffan
2006-05-29, 12:23:19
Mit dem Augenkrebs meine ich ja auch nur den ersten "Schock".
Was früher die Grafik aus technischen Gründen nicht hergab, das wurde durch die Fantasie ersetzt. So kann ich nach einer gewissen Zeit auch wieder Gothic oder Outcast spielen, aber auch nur, weil die Spiele so sind, dass man die erste Durststrecke überwindet und dann über grafische Mängel wegsieht.
Heute möchte ich kein Spiel mehr sehen, wo ich tagelang in engen Levelschläuchen rumrenne und das ganze mehr oder weniger ne Schießbude oder Geisterbahn ist.
Wenn man es geschickt verpackt, wie z.B. bei KOTOR 1, dann müssen Schläuche nicht nerven. Gerade aber bei Kotor hat mich die mittelprächtige Performance gewundert.
Bei Oblivion oder Farcry "fühlt" man, wo die Leistung bleibt. Allein die zugegenbermaßen kleinen Inneräume in Oblivion sind so krass ausdetailliert wie in keinem anderen Spiel. Wo Max Payne 2 noch munter faken muss, sind bei Oblivion selbst die kleinsten Gegenstände "echt" und noch mit Materialtexturen überzogen. Ich mag gar nicht mehr ein älteres Spiel ansehen. :wink:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.