Archiv verlassen und diese Seite im Standarddesign anzeigen : The Elder Scrolls IV: Oblivion, Technology Interview
Super Grobi
2006-03-17, 10:49:57
Danke Magnum,
da frag ichmich aber, warum es bei Raff geruckelt hat? :| Ein 3800+ und ne GTX liegen ja weit drüber.
Gruss
SG
dildo4u
2006-03-17, 10:51:47
Danke Magnum,
da frag ichmich aber, warum es bei Raff geruckelt hat? :| Ein 3800+ und ne GTX liegen ja weit drüber.
Gruss
SG
Sorry aber auf die Hardware Anfoderungen vom Hersteller würd ich gar nix geben muss man nur mal auf die Verpackung von FEAR gucken.
ShadowXX
2006-03-17, 10:56:05
Sorry aber auf die Hardware Anfoderungen vom Hersteller würd ich gar nix geben muss man nur mal auf die Verpackung von FEAR gucken.
Juppss...."Recommend" wird bei mir gleichgesetzt mit: "Das Spiel startet, das wars dann aber auch".
Vertigo
2006-03-17, 11:00:06
Juppss...."Recommend" wird bei mir gleichgesetzt mit: "Das Spiel startet, das wars dann aber auch".
Gemach, gemach. Im Elderscrolls-Forum wurde von offizieller Seite eine sehr glaubwürdige und umfassende Anforderungsliste veröffentlicht. Link steht ein paar Posts weiter oben. Was bei Spielen normalerweise so auf der Verpackung steht, ist allerdings wirklich oft ziemlich daneben...
dildo4u
2006-03-17, 11:02:13
Gemach, gemach. Im Elderscrolls-Forum wurde von offizieller Seite eine sehr glaubwürdige und umfassende Anforderungsliste veröffentlicht. Link steht ein paar Posts weiter oben. Was bei Spielen normalerweise so auf der Verpackung steht, ist allerdings wirklich oft ziemlich daneben...
Die Liste kommmt auch von den Entwicklern warum sollten die da die Wahrheit schreiben dann würden es viele Leute geben die nicht Blind vorbestellen da wärn sie ja schön Blöd.
THEaaron
2006-03-17, 11:05:27
Ich verlass mich nur auf Hardwareanforderungen die in Tests ermittelt wurden.
Ich glaub was besseres kann man nicht machen.
rokko
2006-03-17, 11:08:24
Und ich verlasse mich nur auf Usertests.
Wenn nach dem Erscheinen viele das Spiel haben kann man sich eine Meinung bilden und man siet dann ungefähr wie es läuft.
Wenn viele nur am meckern sind lass ich die Finger davon. :wink:
Crossfade
2006-03-17, 14:10:28
man, ich überleg grad echt, ob ich evtl doch noch 80€ drauflegen soll, auf des System und dann stat nem 3700+ nen X2 3800+ nehmen soll......
Die Liste kommmt auch von den Entwicklern warum sollten die da die Wahrheit schreiben dann würden es viele Leute geben die nicht Blind vorbestellen da wärn sie ja schön Blöd.
Also irgendwann muss man jemanden doch mal glauben. Außerdem wollen die Leute von Bethesda ja auch in Zukunft ihre Produkte verkaufen können und sich nicht ihr Image mit erlogenen Hardwareanforderungen ruinieren.
Die Liste dort klingt aus meiner Sicht und in Anbetracht der zeitgleich erscheinenden X-Box-Version jedenfalls sehr glaubhaft.
Und zum Thema "Hardware-Empfehlungen von Spieletestern" : auch diese sollte man nicht für bare Münze nehmen. Die beste Methode ist in der Tat, das Spiel selbst am eigenen Rechner zu testen - dummerweise hat man es dann schon gekauft - bleibt nur noch eBay...
Spasstiger
2006-03-17, 14:22:12
man, ich überleg grad echt, ob ich evtl doch noch 80€ drauflegen soll, auf des System und dann stat nem 3700+ nen X2 3800+ nehmen soll......
Ich würds machen. Von Dual-Core hast du langfristig mehr als vom 3700+, zumal die Dual-Core-Vorteile schon jetzt nutzbar sind.
Mr.Magic
2006-03-17, 14:25:42
...Die beste Methode ist in der Tat, das Spiel selbst am eigenen Rechner zu testen - dummerweise hat man es dann schon gekauft - bleibt nur noch eBay...
Keine Videothek im Ort?
Neomi
2006-03-17, 14:28:18
Warum sollten die minimalen Systemvorraussetzungen denn nicht stimmen? Bevor jetzt "das kann niemals bei der Grafik..." kommt, von der gezeigten Grafik ist bei den Minimalvorraussetzungen auch nicht die Rede. Einige verwechseln wohl "läuft auf XYZ" mit "läuft auf XYZ mit maximalen Details in 1600x1200". Die minimalen Vorraussetzungen sind nicht gelogen, sondern durch Detailreduzierung erreichbar, genau dazu sind solche Optionen ja da.
Vertigo
2006-03-17, 14:30:07
Warum sollten die minimalen Systemvorraussetzungen denn nicht stimmen? Bevor jetzt "das kann niemals bei der Grafik..." kommt, von der gezeigten Grafik ist bei den Minimalvorraussetzungen auch nicht die Rede. Einige verwechseln wohl "läuft auf XYZ" mit "läuft auf XYZ mit maximalen Details in 1600x1200". Die minimalen Vorraussetzungen sind nicht gelogen, sondern durch Detailreduzierung erreichbar, genau dazu sind solche Optionen ja da.
Schau dir die Seite im Elderscrolls-Forum nochmal genauer an! Da steht sehr wohl, welche Karte für welche Detailstufe angedacht ist...
Neomi
2006-03-17, 14:39:51
Schau dir die Seite im Elderscrolls-Forum nochmal genauer an! Da steht sehr wohl, welche Karte für welche Detailstufe angedacht ist...
Das war jetzt auch nicht speziell auf Oblivion bezugen. Ein paar Postings weiter oben wurden die Vorraussetzungen ja als falsch bei grundsätzlich allen Spielen angeprangert, Fear wurde speziell genannt.
Wenn konkrete Daten genannt werden, dann stimmen die auch, sonst würden sich die Entwickler selbst ins Bein schießen. Es ist aber trotzdem falsch, bei den nicht genannten Zahlen von den eigenen Standards auszugehen.
Super Grobi
2006-03-17, 14:43:08
Schau dir die Seite im Elderscrolls-Forum nochmal genauer an! Da steht sehr wohl, welche Karte für welche Detailstufe angedacht ist...
Ich finde diesen Link nicht.... *urks*
SG
EvilOlive
2006-03-17, 14:46:43
Ich finde diesen Link nicht.... *urks*
SG
http://www.elderscrolls.com/forums/index.php?showtopic=264257
msilver
2006-03-17, 14:47:13
Ich finde diesen Link nicht.... *urks*
SG
http://www.elderscrolls.com/games/oblivion_faq.htm
http://www.elderscrolls.com/forums/index.php?showtopic=264257
Super Grobi
2006-03-17, 14:50:46
So,
hab mir das mal durchgelesen. Wer meint sich nen x2 3800+ statt nen 3700+ kaufen zu müssen... tja, der darf sich dann in anderen Games über die SC Leistung des X2 nicht beschweren.
Das Game sollte somit auf jeden bischen besseren PC (3,2 P4 oder 3200+) und ner einigermassen guten Karte (X800 oder Geforce 6800GT) ordentlich laufen.
Nun bin ich beruhigt *ggg*
Gruss
SG
ShadowXX
2006-03-17, 15:00:54
Das war jetzt auch nicht speziell auf Oblivion bezugen. Ein paar Postings weiter oben wurden die Vorraussetzungen ja als falsch bei grundsätzlich allen Spielen angeprangert, Fear wurde speziell genannt.
Wenn konkrete Daten genannt werden, dann stimmen die auch, sonst würden sich die Entwickler selbst ins Bein schießen. Es ist aber trotzdem falsch, bei den nicht genannten Zahlen von den eigenen Standards auszugehen.
Aus einer gewissen Sichtweise, sind die Angaben auch so gut wie immer völlig falsch.
Spieler X sieht Screenshots auf der Rückseite der Verpackung...guckt nach was bei "Recommend" steht und freut sich nen Ast, das seine HW ja viel Potenter ist.
Zuhause bemerkt er dann, das um die Grafik auf der Rückseite der Verpackung zu erreichen er mindestens 50% potentere HW benötigt als er im Rechner hat (die aber eigentlich schon 50% über dem liegt was auf der Verpackung als Recommend angegeben ist).
Inzwischen sind ja zumindest einige Publisher dazu übergegangen, auch noch "Optimal" Settings mit rauzudrucken...aber selbst das kommt dann meistens nicht hin (ausser man empfindet 10FPS als Spielbar).
Das es aus Marketingssicht tötlich wäre "echte" benötigte Specs auf die Packung zu drucken ist mir klar, aber das sich der 08/15-User teilweise verarscht vorkommt genauso.
Ideal wäre IMHO eine Angabe in ungefähr dieser Art:
A64 3500+ (oder Äqivalent), X1800XT, 2Gib Ram bei 1024*768 ohne AA/AF durchschnittlich 70FPS (min. 30 / max 123).
Das ganze dann für 3-4 Systeme verschiedenere Leistungsklassen....darunter kann man sich dann was vorstellen.
Fürs Marketing wäre dieses natürlich der Super-Gau.......
Vertigo
2006-03-17, 15:20:52
Aus einer gewissen Sichtweise, sind die Angaben auch so gut wie immer völlig falsch.
Spieler X sieht Screenshots auf der Rückseite der Verpackung...guckt nach was bei "Recommend" steht und freut sich nen Ast, das seine HW ja viel Potenter ist.
Zuhause bemerkt er dann, das um die Grafik auf der Rückseite der Verpackung zu erreichen er mindestens 50% potentere HW benötigt als er im Rechner hat (die aber eigentlich schon 50% über dem liegt was auf der Verpackung als Recommend angegeben ist).
Inzwischen sind ja zumindest einige Publisher dazu übergegangen, auch noch "Optimal" Settings mit rauzudrucken...aber selbst das kommt dann meistens nicht hin (ausser man empfindet 10FPS als Spielbar).
Das es aus Marketingssicht tötlich wäre "echte" benötigte Specs auf die Packung zu drucken ist mir klar, aber das sich der 08/15-User teilweise verarscht vorkommt genauso.
Ideal wäre IMHO eine Angabe in ungefähr dieser Art:
A64 3500+ (oder Äqivalent), X1800XT, 2Gib Ram bei 1024*768 ohne AA/AF durchschnittlich 70FPS (min. 30 / max 123).
Das ganze dann für 3-4 Systeme verschiedenere Leistungsklassen....darunter kann man sich dann was vorstellen.
Fürs Marketing wäre dieses natürlich der Super-Gau.......
Da solche Werte unter anderem noch von Speichertimings, Chipsatz-Treibern, in besonderem Maße von Grafikkarten-Treibern, von im Hintergrund laufenden AV-Programmen usw. abhängen, wird dies nicht möglich sein.
Die Mindestanforderungen und die Systemempfehlung geben doch meist grobe Hinweise. Die Liste im elderscrolls-forum finde ich dagegen äußerst detailliert und gelungen. Aber das wird wohl die große Ausnahme bleiben...
Spasstiger
2006-03-17, 15:21:28
So,
hab mir das mal durchgelesen. Wer meint sich nen x2 3800+ statt nen 3700+ kaufen zu müssen... tja, der darf sich dann in anderen Games über die SC Leistung des X2 nicht beschweren.
Das Game sollte somit auf jeden bischen besseren PC (3,2 P4 oder 3200+) und ner einigermassen guten Karte (X800 oder Geforce 6800GT) ordentlich laufen.
Nun bin ich beruhigt *ggg*
Gruss
SG
Ich vertraue da lieber mal auf die Aussage von Raff. Und wenn er meint, dass es auf einem Athlon 64 3800+ mit 1 GB Ram und GeForce 7800 GTX stellenweise geruckelt hat, wird da schon was dran sein. Wenn allerdings das Reduzieren der Vegetationsdetails ein heftiges Geschwindigkeitsplus bringen soll, dann kann ich damit leben. ;)
TheGoD
2006-03-17, 15:23:10
Aus einer gewissen Sichtweise, sind die Angaben auch so gut wie immer völlig falsch.
Spieler X sieht Screenshots auf der Rückseite der Verpackung...guckt nach was bei "Recommend" steht und freut sich nen Ast, das seine HW ja viel Potenter ist.
Zuhause bemerkt er dann, das um die Grafik auf der Rückseite der Verpackung zu erreichen er mindestens 50% potentere HW benötigt als er im Rechner hat (die aber eigentlich schon 50% über dem liegt was auf der Verpackung als Recommend angegeben ist).
Inzwischen sind ja zumindest einige Publisher dazu übergegangen, auch noch "Optimal" Settings mit rauzudrucken...aber selbst das kommt dann meistens nicht hin (ausser man empfindet 10FPS als Spielbar).
Das es aus Marketingssicht tötlich wäre "echte" benötigte Specs auf die Packung zu drucken ist mir klar, aber das sich der 08/15-User teilweise verarscht vorkommt genauso.
Ideal wäre IMHO eine Angabe in ungefähr dieser Art:
A64 3500+ (oder Äqivalent), X1800XT, 2Gib Ram bei 1024*768 ohne AA/AF durchschnittlich 70FPS (min. 30 / max 123).
Das ganze dann für 3-4 Systeme verschiedenere Leistungsklassen....darunter kann man sich dann was vorstellen.
Fürs Marketing wäre dieses natürlich der Super-Gau.......
Genau dafür gibt es Spielemagazine, Benchmarks von Hardwareseiten etc.
Wer sich nicht informiert, ist selbst Schuld. Ein PC ist nunmal keine Konsole.
Vertigo
2006-03-17, 15:25:48
Ich vertraue da lieber mal auf die Aussage von Raff. Und wenn er meint, dass es auf einem Athlon 64 3800+ mit 1 GB Ram und GeForce 7800 GTX stellenweise geruckelt hat, wird da schon was dran sein. Wenn allerdings das Reduzieren der Vegetationsdetails ein heftiges Geschwindigkeitsplus bringen soll, dann kann ich damit leben. ;)
... da macht einer die Aussage, das Spiel "mal kurz aus der Ferne" gesehen zu haben und schon wird er darauf festgenagelt. Jungens, wir sprechen uns in einer Woche wieder ...
Super Grobi
2006-03-17, 15:31:33
Das Raff-Ruckeln *ggg* kam bestimmt von 1024MB Ram. Denke das der PC nur 1gb hat.
SG
Neomi
2006-03-17, 15:40:59
Aus einer gewissen Sichtweise, sind die Angaben auch so gut wie immer völlig falsch.
Die Sichtweise kann ich zwar verstehen, aber ich habe trotzdem ein andere. "Required" muß stimmen, "Recommend" stimmt bei moderaten (nicht hohen, aber auch nicht minimalen) Details meistens auch. Wie viele fps man nun benötigt in in welchen Settings genau, hängt von jedem selbst ab. Die Anforderungen stimmen also nur für den nicht, der sich mit den dazu nötigen Einschränkungen nicht begnügt. Genau die Leute sollten dann aber auch genug Erfahrung haben, um sich nicht auf den Packungstext verlassen zu müssen.
Ideal wäre IMHO eine Angabe in ungefähr dieser Art:
A64 3500+ (oder Äqivalent), X1800XT, 2Gib Ram bei 1024*768 ohne AA/AF durchschnittlich 70FPS (min. 30 / max 123).
OS, Treiberversionen, Hintergrundprogramme, Fragmentierungsgrad der Platte, ...
Wenn man die genauen Leistungsdaten eines Rechners hat, hat man noch lange nicht die Leistungsdaten eines anderen Rechners mit identischer Hardware. Daher halte ich solche Angaben für nicht wirklich machbar.
Spasstiger
2006-03-17, 15:59:40
Das Raff-Ruckeln *ggg* kam bestimmt von 1024MB Ram. Denke das der PC nur 1gb hat.
SG
1 GB Ram soll aber völlig ausreichen.
Grequaid
2006-03-17, 16:23:17
War das eine GTX mit 256MB?
*WahrsagerFrageModusAn*Weiß vll jemand was man mit einer 7900GTX oder X1900XT(X) erwarten kann?*WahrsagerFrageModusAus*
(del676)
2006-03-17, 16:29:19
1 GB Ram soll aber völlig ausreichen.
auch wenn du das CCC installiert hast? ;)
Mr.Magic
2006-03-17, 16:29:56
Grequaid,
das steht doch bereits im Link:
Ab Dual Core mit X1900 512MB und 1GB RAM läuft es flüssig mit max. Details.
Um auf X360-Niveau spielen zu können reicht ein 3Ghz P4 mit 6800GT aufwärts.
Für einigermaßen spielbar reicht eine 9800Pro.
Um überhaupt was sehen zu können braucht man einen XP 2000+ und eine 5700/9500.
Nick Nameless
2006-03-17, 16:31:51
À propos PCGH:
Hardwarefresser Oblivion!
16.03.2006 11:25 Uhr - Die beeindruckende Grafik von Oblivion verzückt seit Montag nicht nur unsere Spiele-Experten sondern die gesamte PG-Games-Hardware-Mannschaft. So realistisch sah noch kein Rollenspiel aus. Nach einer ersten technischen Analyse legte sich jedoch die anfängliche Euphorie, denn die opulente Optik fordert ihren Tribut. Selten testeten wir ein Spiel mit solch hohen Hardwareanforderungen: Für alle Details in einer Auflösung von 1.280x1.024 benötigt der Spieler ein High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX.
Link (http://www.pcgameshardware.de/?article_id=457821)
(del676)
2006-03-17, 16:35:58
finde ich gut so dass auf die ultra-highest-end-hardware optimiert wird, so hat man noch in 2 jahren was davon :)
Mr.Magic
2006-03-17, 16:39:42
Hat die PCGH sie nicht alle?
"High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX."
Wo ist das bitte Highend-Hardware? Highend ist die beste, zu diesem Zeitpunkt kaufbare, Hardware, und nicht Zeugs das vor einem Jahr mal aktuell war.
Fluctuation
2006-03-17, 16:42:20
für "normal sterbliche" die nicht ständig im 3Dc rumhängen ist das sehr wohl "high-end" ...
Mr.Magic
2006-03-17, 16:46:06
Normalsterbliche findet man im Mainstream, dazu ist er da.
Super Grobi
2006-03-17, 16:47:31
für "normal sterbliche" die nicht ständig im 3Dc rumhängen ist das sehr wohl "high-end" ...
Sehe ich auch so. Der PC ist High-End. OK, 2gb Ram sollten es schon sein, aber CPU+Graka ist HE.
SG
(del676)
2006-03-17, 16:51:52
Hat die PCGH sie nicht alle?
"High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX."
Wo ist das bitte Highend-Hardware? Highend ist die beste, zu diesem Zeitpunkt kaufbare, Hardware, und nicht Zeugs das vor einem Jahr mal aktuell war.
lol
da steht auch was von 1280x1024
wer benutzt sowas schon? rotfl X-D
Spasstiger
2006-03-17, 16:52:16
auch wenn du das CCC installiert hast? ;)
Das schluckt bei mir 15 MB insgesamt. Der Nvidia-Treiber ist nicht wirklich genügsamer, zumal er eine höhere CPU-Last bei Spielen verursacht.
TheGoD
2006-03-17, 16:53:28
Kille beide CLI-Tasks mal und vergleiche den freien Ram mit dem vorherigen Wert ;)
Spasstiger
2006-03-17, 16:55:00
Hat die PCGH sie nicht alle?
"High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX."
Wo ist das bitte Highend-Hardware? Highend ist die beste, zu diesem Zeitpunkt kaufbare, Hardware, und nicht Zeugs das vor einem Jahr mal aktuell war.
Die 7800 GTX kratzt nach meiner Definiton gerade so am High-End. Der Rest passt zur Grafikkarte, Ram könnte für wenige Spiele wie Battlefield 2 und Fear auch 2 GB sein.
Hat die PCGH sie nicht alle?
"High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX."
Diese Konfiguration halte ich schon für High-End. Ok, manche halten ein SLI-System für absolutes High-End als nur eine Single-Grafikkarte im Rechner.
Allerdings habe ich immer noch gewisse Zweifel, ob 1Gb RAM wirklich reichen für Oblivion :confused:
(del676)
2006-03-17, 18:10:30
Das schluckt bei mir 15 MB insgesamt. Der Nvidia-Treiber ist nicht wirklich genügsamer, zumal er eine höhere CPU-Last bei Spielen verursacht.
64mb warens hier X-D
(del676)
2006-03-17, 18:10:50
Kille beide CLI-Tasks mal und vergleiche den freien Ram mit dem vorherigen Wert ;)
benutze jetzt ATT
3mb reichen ;)
ShadowXX
2006-03-17, 18:43:03
Die Sichtweise kann ich zwar verstehen, aber ich habe trotzdem ein andere. "Required" muß stimmen, "Recommend" stimmt bei moderaten (nicht hohen, aber auch nicht minimalen) Details meistens auch. Wie viele fps man nun benötigt in in welchen Settings genau, hängt von jedem selbst ab. Die Anforderungen stimmen also nur für den nicht, der sich mit den dazu nötigen Einschränkungen nicht begnügt. Genau die Leute sollten dann aber auch genug Erfahrung haben, um sich nicht auf den Packungstext verlassen zu müssen.
OS, Treiberversionen, Hintergrundprogramme, Fragmentierungsgrad der Platte, ...
Wenn man die genauen Leistungsdaten eines Rechners hat, hat man noch lange nicht die Leistungsdaten eines anderen Rechners mit identischer Hardware. Daher halte ich solche Angaben für nicht wirklich machbar.
OS kann man dazushreiben, genauso das das ganze für eine frische Installation mit gerade aktuellen Treibern gilt.
Prinzipiel wäre ich sowieso dafür die angaben einfach wegzulassen und nur hinzuschreiben, was man braucht, damit das Game startet...dann natürlich mit dem Hinweis das diese Angaben keine Aussage darüber geben, wie gut/schlecht das ganze auf seinem System läuft.
Also: Benötigt: SSE-Fähige CPU, SM2.0-Fähige Graka mit 128MB, 512MB, Win2k/XP.
Spasstiger
2006-03-17, 18:54:30
benutze jetzt ATT
3mb reichen ;)
Ich benutz auch ATT, belegt bei mir aber 5-6 MB Ram. Naja, ist ja auch Wurst, alles unter 30 MB hat definitiv keinen Einfluss auf die Spieleperformance. Ich kann sogar Firefox nebenher laufen lassen, ohne dass ich was davon merke und Firefox frisst bei mir über 100 MB.
(del676)
2006-03-17, 18:58:14
es geht hier eher im freien ram
wennst 500mb belegt hast und dann oblivion startest hast nunmal keine 1gb "frei"
da muss der zuerst auslagern
Spasstiger
2006-03-17, 19:07:49
es geht hier eher im freien ram
wennst 500mb belegt hast und dann oblivion startest hast nunmal keine 1gb "frei"
da muss der zuerst auslagern
Selbstverständlich. Die Xbox 360 Version kommt bei vollen Details mit 512 MB aus. Soviel sollten mit 1 GB Ram ebenfalls frei sein, meist bleiben sogar 700 MB für Spiele frei, wenn man 1 GB Ram hat.
(del676)
2006-03-17, 19:14:29
die xbox version ja.
bf2 braucht dank der texturen auch ~1gb ram (+200mb windows und anderer mistdinger) sinds ~1,2-1,3
ich glaube schon das oblivion mit maximalen texturen mehr als 512mb braucht ... ausser sie wirken wunder, und das wäre ja zu hoffen da sie nun an Fallout3 arbeiten X-D
Spasstiger
2006-03-17, 19:15:26
ich glaube schon das oblivion mit maximalen texturen mehr als 512mb braucht ...
Am PC steht auch noch dedizierter Grafikspeicher zu Verfügung, sollte man auch nicht vergessen.
Am PC steht auch noch dedizierter Grafikspeicher zu Verfügung, sollte man auch nicht vergessen.
Mit dem verschwinden die Texturen aber nicht aus dem Hauptspeicher X-D
trollkopf
2006-03-17, 20:25:04
sehr gute aktuelle Q&A (in Englisch)
http://www.telefragged.com/interviews/oblivion-march2006/
Themen:
- widescreen support für PC
- draw distance kann verändert werden (anscheinend mit settings für zukünftige G.-Karten; Xbox 360 hat eine 'fixed distance')
- PC Console zum cheaten
-die aktuellen videos sind vom 'final build'
edit:
HyperHyper : Countdown Video #4
http://www.fileshack.com/file.x?fid=8533
Neomi
2006-03-17, 21:34:19
Mit dem verschwinden die Texturen aber nicht aus dem Hauptspeicher X-D
Doch, Texturen im Default Pool tun das. Es sei denn, man spezifiziert D3DUSAGE_DYNAMIC, dann langen sie im per AGP ansprechbaren Systemspeicher.
mdf/markus
2006-03-17, 22:55:56
countdown trailer 4 herausgegeben:
http://www.gametrailers.com/gamepage.php?id=1688
edit:
die kirche erinnert mich ja extrem an notre dame: :eek:
http://en.wikipedia.org/wiki/Image:Notre-Dame-night.jpg
Gouvernator
2006-03-18, 00:17:52
Hat die PCGH sie nicht alle?
"High-End-System mit mindesten 3,8 GHz, ein GByte RAM und einer Geforce 7800 GTX."
Wo ist das bitte Highend-Hardware? Highend ist die beste, zu diesem Zeitpunkt kaufbare, Hardware, und nicht Zeugs das vor einem Jahr mal aktuell war.
Für mich heisst high-end die high-end hardware aber + übertaktung, ohne übertaktung= low-end . wirkliches low-end = schrott den man vor die tür kippen soll.
rokko
2006-03-18, 00:21:29
ohne übertaktung= low-end
wirkliches low-end = schrott den man vor die tür kippen soll.
Demnach wäre ne 7900er einfach nur Schrott der zu nichts taugt.
Aber ne gute gute alte Geforce wäre Highend. :biggrin:
Hauptsache übertaktet.
Mistersecret
2006-03-18, 00:36:45
High End wäre zB FX60 + 1900SLI, 7800GTX single GPU ist ja schon alt.
Spasstiger
2006-03-18, 00:46:51
High End wäre zB FX60 + 1900SLI, 7800GTX single GPU ist ja schon alt.
Das ist Top-of-the-Line, das Beste vom Besten halt.
Meine Kategorisierungen:
http://img70.imageshack.us/img70/8595/grafikkartenrating0qb.jpg
Gouvernator
2006-03-18, 01:05:10
Ich möchte hoffen das eine einzelne übertaktete Karte mehr bringt als 2 nicht übertaktete.
Banshee18
2006-03-18, 01:13:46
Ich möchte hoffen das eine einzelne übertaktete Karte mehr bringt als 2 nicht übertaktete.
Wenn wir von den gleichen Karten ausgehen sicher nicht, es sei denn, AFR funktioniert nicht.
Das ist Top-of-the-Line, das Beste vom Besten halt.
Meine Kategorisierungen:
http://img70.imageshack.us/img70/8595/grafikkartenrating0qb.jpg
Deine Arbeit in allen Ehren, aber von solchen Unterteilungen halte ich nichts. Du nennst die 6600GT und eine 7800GT in einem Atemzug?!
Spasstiger
2006-03-18, 01:46:57
Deine Arbeit in allen Ehren, aber von solchen Unterteilungen halte ich nichts. Du nennst die 6600GT und eine 7800GT in einem Atemzug?!
Ich hätte auch noch weitere Unterteilungen machen können. Aber dass die beiden Karten den naturgemäß sehr breiten Midrange-Bereich abgrenzen, spricht doch Bände für die unterschiedliche Leistung der Karten.
Die 7800 GT ist obere Mittelklasse, während die 6600 GT dem Einsteigersegment im Mid-Range. Zu Budget gehören Karten, die ich einem Spieler nicht mehr empfehlen würde bzw. die noch nie empfehlenswert waren.
EDIT: Mit weiteren Unterteilungen -> http://img122.imageshack.us/img122/8716/grafikkartenratingkopie7ei.jpg. Zur Erklärung:
High End
--------
Enthusiast
Top of the Line
Einsteiger-High-End
Mid-Range
---------
Obere Mittelklasse
Mittelklasse
Einsteigersegment im Mid-Range
Budget
------
Value-Segment
Haltbarkeitsdatum überschritten
Budget forever
Müll :D
Crossfade
2006-03-18, 09:28:15
was ist denn das eigentlich für ein "ATT" Treiber,den ihr da anstatt dem CCC verwendet, der nur viel weniger ram benötigt ?
Kladderadatsch
2006-03-18, 09:33:49
was ist denn das eigentlich für ein "ATT" Treiber,den ihr da anstatt dem CCC verwendet, der nur viel weniger ram benötigt ?
ati tray tools, eine alternative zm offiziellen panel.
Blaze
2006-03-18, 09:43:38
Ich hätte auch noch weitere Unterteilungen machen können. Aber dass die beiden Karten den naturgemäß sehr breiten Midrange-Bereich abgrenzen, spricht doch Bände für die unterschiedliche Leistung der Karten.
Die 7800 GT ist obere Mittelklasse, während die 6600 GT dem Einsteigersegment im Mid-Range. Zu Budget gehören Karten, die ich einem Spieler nicht mehr empfehlen würde bzw. die noch nie empfehlenswert waren.
EDIT: Mit weiteren Unterteilungen -> http://img122.imageshack.us/img122/8716/grafikkartenratingkopie7ei.jpg. Zur Erklärung:
High End
--------
Enthusiast
Top of the Line
Einsteiger-High-End
Mid-Range
---------
Obere Mittelklasse
Mittelklasse
Einsteigersegment im Mid-Range
Budget
------
Value-Segment
Haltbarkeitsdatum überschritten
Budget forever
Müll :D
Da fehlt aber 7800GT(X) SLI ;)
Die würde ich schon auf einer ebene mit X1900XTX/7900GTX sehen, eigentlich sogar noch darüber.
Arcanoxer
2006-03-18, 10:24:02
was ist denn das eigentlich für ein "ATT" Treiber,den ihr da anstatt dem CCC verwendet, der nur viel weniger ram benötigt ?
ATi tray tools sind kein Treiber.
Bzw. kommt mal wieder ontopic, eure Hardware Spekulationen haben nun beim besten willen nichts mit Obivion zu tun.
Wenn ihr wenigstens aus eigener Erfahrung sprechen würdet, aber nein...
Super Grobi
2006-03-18, 14:11:22
Oh,
hab gerade mal den neuen NV Treiber 84.21 WHQL installiert. Da ist mir dann was feines ins Auge gesprungen.
Spasstiger
2006-03-18, 14:41:04
Da fehlt aber 7800GT(X) SLI ;)
Die würde ich schon auf einer ebene mit X1900XTX/7900GTX sehen, eigentlich sogar noch darüber.
In einem anderen Thread habe ich begründet, dass ich SLI und CF nur der Vollständigkeit halber nur für die Topmodelle aufgenommen habe. Sonst wird das Schaubild zu unübersichtlich und SLI-/CF-Leistung ist sowieso von Spiel zu Spiel sehr unterschiedlich.
Oh,
hab gerade mal den neuen NV Treiber 84.21 WHQL installiert. Da ist mir dann was feines ins Auge gesprungen.
sieht so aus als ob es auf NVidia Karten wirklich nicht so doll läuft. Dann ist der neue Treiber wohl der Oblivion Treiber um noch etwas Performance rauszuholen.
Spasstiger
2006-03-18, 15:24:34
sieht so aus als ob es auf NVidia Karten wirklich nicht so doll läuft. Dann ist der neue Treiber wohl der Oblivion Treiber um noch etwas Performance rauszuholen.
Ist das nicht das SLI-Profil?
ist es warum? ändert nichts daran das der neue ForceWare wohl wegen Oblivion rausgekommen ist um kleine Performanceprobleme zu fixen.
Super Grobi
2006-03-18, 15:40:54
ist es warum? ändert nichts daran das der neue ForceWare wohl wegen Oblivion rausgekommen ist um kleine Performanceprobleme zu fixen.
Das glaub ich nicht. Den das ist einfach nur die WQHL Version vom 84.20. Und nur weil der Treiber nen SLI Profil hat, ist das doch kein Grund das er vor dem Profil schlecht lief.
Mich hat nur gewundert das der Treiber schon nen SLI Profil hat (AFR)
SG
Und nur weil der Treiber nen SLI Profil hat, ist das doch kein Grund das er vor dem Profil schlecht lief.
Wieviel Treiber mit SLI Profilen bzw. Gameprofilen vor dem Release eines Spiels oder einer Demo kennst du denn? ;)
Super Grobi
2006-03-18, 15:49:09
Wieviel Treiber mit SLI Profilen bzw. Gameprofilen vor dem Release eines Spiels oder einer Demo kennst du denn? ;)
Und weil es diesmal so ist, ist das der Beweis? ;D
SG
es deutet in der Tat einiges drauf hin das NV einen extra Oblivion Treiber noch schnell gebracht hat. ;)
Wäre dann mal interessant Benchmarks zw. altem und neuen zu sehen dann weiss man es genau.
dildo4u
2006-03-18, 17:46:21
es deutet in der Tat einiges drauf hin das NV einen extra Oblivion Treiber noch schnell gebracht hat. ;)
NV hat neue Treiber gebracht wegen der 7900 und Fear und sicher nicht wegen Oblivion wird meiner Meinung nach eh kein Game was oft gebencht wird.
Spasstiger
2006-03-18, 17:47:49
NV hat neue Treiber gebracht wegen der 7900 und Fear und sicher nicht wegen Oblivion wird meiner Meinung nach eh kein Game was oft gebencht wird.
Jeder neue Grafikknüller wird ausgiebig gebencht. So auch sicherlich Oblivion.
dildo4u
2006-03-18, 17:48:52
Jeder neue Grafikknüller wird ausgiebig gebencht. So auch sicherlich Oblivion.
Nö zu CPU Lastig und kein Shooter.
Nö zu CPU Lastig und kein Shooter.
Warts erstmall ab vielleicht ist das Spiel doch Gpu lastig...
NV hat neue Treiber gebracht wegen der 7900 und Fear und sicher nicht wegen Oblivion wird meiner Meinung nach eh kein Game was oft gebencht wird.
Oblivion ist eins der meist erwartetsten Spiele (Most Wanted sozusagen...zum Glück ist es aber nicht von EA :D )
da muss man schaun das man nicht allzu schlecht im Vergleich mit der Konkurenz dasteht.....
Sogar so ein Kack Game wie AoE III wird oft gebencht...schau dir doch Computerbase und wie sie alle heissen an. Und das ist weitaus weniger Shooter/3D Game als Oblivion. Da kannst du Gift drauf nehmen das Computerbase das in Zukunft benchen wird wenns möglich ist.
Und wie gesagt man muss vermeiden das die Leute sagen "das läuft beschissen auf meiner Karte, von denen kommt mir nix mehr ins Haus".
Nö zu CPU Lastig und kein Shooter.
AoEIII ist auch CPU lastig und kein Shooter...mal drüber nachdenken :rolleyes:
AoEIII ist auch CPU lastig und kein Shooter...mal drüber nachdenken :rolleyes:
Und wird als CPU-Bench eingesetzt. :)
Zumindest in PCGH & Co.
jo und bei Computerbase als GPU bench.
jo und bei Computerbase als GPU bench.
Unter 1600er,1920er u.h. kann man es auch als GPU-Bench einsetzen.
dildo4u
2006-03-18, 18:38:28
AOE3 wurde dehalb als Bench genommen weils eins der wenigen SM3.0 Games ist.
TheCounter
2006-03-18, 18:49:11
Wie sieht es auf Mittelmaß-PCs aus?
http://www.justgamers.de/?page=news&news_id=42240
Der Unterschied zwischen Hohen und Mittleren Details ist bei ner R9800 Pro mit der Lupe zu suchen. Außer bei ein paar Büschen (wird nur bei hohen details dargestellt) kann ich da keinen Unterschied erkennen.
EDIT: Ein paar Steine fehlen bei der mittleren Detailstufe auch.
Super Grobi
2006-03-18, 19:00:36
*saug saug saug*
Bin SEHR gespannt! Damit wäre dann auch geklärt das das Game nicht CPU und auch nicht GPU limietiert ist ;D Eine gute Kombi scheit wohl wichtig zu sein.
SG
da gibts für meine 6800 nur eins runter mit der auflösung hoch mit den details und dann aa =)
mich nervt dieses hohe auflösungs geschwafel sowieso mit 800 600 ists doch ultra geil bei 4xaa...
hohe auflösung lohnt doch nur bei ka so aoe oder anderen spielen wo man die braucht aber ned bei nem shooter wos dann nur stört da nehm ich lieber den versaschenen blick in kauf der bringt mehr realismus
trollkopf
2006-03-18, 19:11:22
kann jemand die vergleichsvideos mal bei rapidshare oder filerush hochladen ?
dildo4u
2006-03-18, 19:12:58
Naja wenn man die Bilder so direkt anguckt ist die Grafik ab einer Bestimmten Distanz wieder auf 2002 Niveau und manche NPCs shen auch nicht grad soo gut aus.
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-4.jpg
kann mal wer screenshots vom video (high Quality) hier posten...und sagen wieviel FPS das System so auf Mittel Details und auf HighDetails liefert?
Ich hab leider nur isdn und kann mir nicht soviel zeug saugen.
lol?
die grafik is ja wohl mehr als schlecht..selbst auf höchst^^
omg und ich hab mich jetzt schon ernsthaft auf das game gefreut!
Banshee18
2006-03-18, 19:30:38
lol?
die grafik is ja wohl mehr als schlecht..selbst auf höchst^^
omg und ich hab mich jetzt schon ernsthaft auf das game gefreut!
Grafik nicht alles ist, mein junger Padawan. :biggrin:
Mr.Magic
2006-03-18, 19:30:43
Für eine betagte 9800 nicht schlecht, und auf jeden Fall die beste Grafik, die ein Rollenspiel je hatte. Noch bessere Grafik gibt es dann in ein oder zwei Jahren von der Community.
(del676)
2006-03-18, 19:33:38
WTF
das sieht ja zum kotzen aus (also das terrain in der entfernung, und das fehlende gras)
da sieht Deer Hunter 2005 besser aus :eek:
edit: oh seh grad dass das ne 9800pro is *schwitz*
lol?
die grafik is ja wohl mehr als schlecht..selbst auf höchst^^
omg und ich hab mich jetzt schon ernsthaft auf das game gefreut!Da wurden nicht alle Details hochgeschraubt ;)
Spasstiger
2006-03-18, 19:40:54
lol?
die grafik is ja wohl mehr als schlecht..selbst auf höchst^^
omg und ich hab mich jetzt schon ernsthaft auf das game gefreut!
Die Bilder wurden mit einer 9800 Pro gemacht und da steht doch auch dran, dass einige Dinge wie HDR und Grasschatten nicht aktiviert werden konnten und dass AntiAliasing aus Performancegründen weggelassen wurde (bei der gezeigten Einstellung "höchste Details").
mdf/markus
2006-03-18, 19:41:24
sicherlich sehen einige dinge hier nicht berauschend aus, allerdings wird es, wie schon in videos zu sehen ist, einige momente im spiel geben, die grafisch mehr als imposant sind.
und angesichts des testrechners ist es für mich durchaus positiv überraschend, dass das spiel auf mittleren details bei verhältnismäßig guter qualität doch recht angenehm spielbar ist.
ich bin jedenfalls sehr zuversichtlich, dass uns hier ein rollenspiel erwartet, dass sowohl in spielfreiheit als auch in technischer hinsicht durchwegs ansprechend ist.
freu mich auf nächste woche!
trollkopf
2006-03-18, 19:53:12
Der Mittelmaß-Testrechner sieht im Groben wie folgt aus:
• Windows XP Pro
• AMD Athlon XP 2200+
• 1024 MB DDR RAM
• ATI Radeon 9800Pro 128 MB
Wichtig: Einige Einstellungen wie HDR-Beleuchtung, Grasschatten und Schattendetails konnten Hardwarebedingt nicht aktiviert werden. Anti Aliasing wurde aus Performancegründen und Gesichterschatten aufgrund von Darstellungsfehlern manuell deaktiviert.
lesen bildet :biggrin:
ich denke mal mit allees auf max und detail slider so weit wies geht wird man high end PCs schon in die knie zwingen...
Naja wenn man die Bilder so direkt anguckt ist die Grafik ab einer Bestimmten Distanz wieder auf 2002 Niveau und manche NPCs shen auch nicht grad soo gut aus.
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
also das hier ist schon äusserst schwach....das kann nicht sein das das an der 9800Pro liegt...denn der (nach billiger voxelgrafik aussehende) hügel würde mit "Grassschatten, HDR, mehr Schattendetails" auch nicht besser aussehen.
Entweder sieht die Ausenlandschaft einfach mistig aus oder sie haben da nicht alles hochgestellt (LOD, Sichtweite)...oder es ist ein bug
wobei ich fast ersteres befürchte, da ein ähnlicher screenshot schonmal gezeigt wurde und da sa das genauso übel aus.
Da fällt mir ein....es könnte auch am fehlenden AF liegen....da so ein Hügel ja sehr uneben ist...und wenn sie in der Entfernung nur eine Grastextur drauflegen sieht das ohne AF scheisse aus ^^
wie war das nochmal, die xbox kann kein AF? na dann gute nacht :D
Spasstiger
2006-03-18, 19:57:39
Solche kahlen Stellen gibt es übrigens auch bei Farcry.
trollkopf
2006-03-18, 20:01:46
ist schon lustig, es erinnert wirklich frapierend an morrowind :biggrin:
(del676)
2006-03-18, 20:02:46
muss doch irgendwie möglich sein ein fake-gras auf dem entfernten hügel darzustellen :(
Darkchylde24
2006-03-18, 20:05:34
Sind das jetzt wirklich PC Bilder? Ich dachte erst das ist LOW Details sonstwas... und dann seh ich da steht HIGH .. WTF!?
Das sieht doch schonmal wieder ganz anders aus als die "schönen Werbescreens" .. ich kann es nicht glauben. Also wenn das nur halb so aussieht auf meinem Rechner bin ich aber mehr als enttäuscht.
Der NPc ist ja wohl ein Witz und was soll das mit der Schrift ist das für blinde?Größer gehts ja nicht mehr
mdf/markus
2006-03-18, 20:09:26
muss doch irgendwie möglich sein ein fake-gras auf dem entfernten hügel darzustellen :(
das ist garantiert nur eine frage von einigen wochen, bis modder das plugin ins net stellen. da würde ich mir am wenigsten sorgen machen. ;)
allerdings frage ich mich, ob da nicht wirklich irgendwelche LOD einstellungen bei der 9800pro nicht aktivierbar sind.
nächste woche werden wir alle schlauer sein.
Kladderadatsch
2006-03-18, 20:09:43
vielleicht sind es ja max. details bei 30% sichtweite...
die ingame-videos können doch niemals derart gefaked gewesen sein;(
Iceman346
2006-03-18, 20:11:36
Irgendwas ist da mit dem LoD nicht ganz in Ordnung denke ich. Bei diesem (http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-6.jpg) Screenshot sieht der Hügel auf dem anderen Flussufer bei weitem nicht so detailarm aus.
Shaft
2006-03-18, 20:14:37
Solche kahlen Stellen gibt es übrigens auch bei Farcry.
Nur sieht FC mit einer 9800Pro besser aus und da greift das LoD auch nocht so extreme.
Super Grobi
2006-03-18, 20:17:38
Ich frag jetzt was schlimmes :biggrin:
Wann kommt den jetzt das Game hier in BRD? 20. oder 24.???
SG
ShadowXX
2006-03-18, 20:19:01
vielleicht sind es ja max. details bei 30% sichtweite...
die ingame-videos können doch niemals derart gefaked gewesen sein;(
Nach den Screens, würde ich glatt mal sagen das das Game weder GPU noch CPU limitiert ist...
Das gruseligste an der Sache ist, das ich quasi überall gelesen habe, das die Grafik als Standbild besser aussehen soll als in Bewegung....
Mit den E3-Screenies hat das aber insgesamt gar nix mehr zu tun....selbst wenn das bei Bildvergleich eins ein LOD-Problem sein sollte.
Habt Ihr euch übrigens mal die Haare des NPCs angeguckt?
Die sehen aus wie bei WingCommander 1.
Ich hoffe das das Game wenigsten Spielerisch überzeugt.
Spasstiger
2006-03-18, 20:24:07
Nur sieht FC mit einer 9800Pro besser aus und da greift das LoD auch nocht so extreme.
Screenshots mit meiner Radeon 9700@Pro, Details hoch bis sehr hoch, Schattendetails niedrig, 1280x960, kein AA, AF auf Stufe "2", stellenweise ruckelnd (Prozessor ist ein P4 2,53 GHz):
http://img295.imageshack.us/img295/756/farcry01065if.jpg
http://img295.imageshack.us/img295/7122/farcry01071el.jpg
Das sieht nicht wirklich besser aus als die Oblivion-Shots und läuft auch nicht so berauschend. Erst in 1024x768 kommt durchgehend flüssiges Spielvergnügen auf.
Und wer weiß, vielleicht regelt Oblivion das LOD abhängig von der Prozessorleistung, ähnlich wie es in Farcry der Fall ist.
Schoki_MADz
2006-03-18, 20:26:23
ich glaube ja, dass wegen der 9800 einige einstellungen (also auch abseits vom HDRR und schatten wie eingangs erwähnt) nicht möglich sind und HQ auf ner vernünftigen karte ganz anders aussehen wird als HQ auf der 9800.
Super Grobi
2006-03-18, 20:31:04
ich glaube ja, dass wegen der 9800 einige einstellungen (also auch abseits vom HDRR und schatten wie eingangs erwähnt) nicht möglich sind und HQ auf ner vernünftigen karte ganz anders aussehen wird als HQ auf der 9800.
Sowas denke ich auch. Vieleicht schaltet das Spiel auch noch selbstständig einiges weg, wegen den 128MB Ram. Raff hat das Game doch auch schonmal angezockt (oder zu geguckt). Ich denke das er uns schon gesagt hätte, wenn das Game so übel wäre. Ausserdem warumsollte dann eine 7800GTX und ein 3800+ manchmal ruckeln?
SG
Shaft
2006-03-18, 20:31:23
Screenshots mit meiner Radeon 9700@Pro, Details hoch bis sehr hoch, Schattendetails niedrig, 1280x960, kein AA, AF auf Stufe "2", stellenweise ruckelnd (Prozessor ist ein P4 2,53 GHz):
http://img295.imageshack.us/img295/756/farcry01065if.jpg
http://img295.imageshack.us/img295/7122/farcry01071el.jpg
Das sieht nicht wirklich besser aus als die Oblivion-Shots und läuft auch nicht so berauschend. Erst in 1024x768 kommt durchgehend flüssiges Spielvergnügen auf.
Und wer weiß, vielleicht regelt Oblivion das LOD abhängig von der Prozessorleistung, ähnlich wie es in Farcry der Fall ist.
Naja, war auch im übertriebenen Sinn gemeint.
Aber 98% der Oblivion Spieler werden eh aufrüsten oder auf der Xbox zocken.
ShadowXX
2006-03-18, 20:32:02
Screenshots mit meiner Radeon 9700@Pro, Details hoch bis sehr hoch, Schattendetails niedrig, 1280x960, kein AA, AF auf Stufe "2", stellenweise ruckelnd (Prozessor ist ein P4 2,53 GHz):
http://img295.imageshack.us/img295/756/farcry01065if.jpg
http://img295.imageshack.us/img295/7122/farcry01071el.jpg
Das sieht nicht wirklich besser aus als die Oblivion-Shots und läuft auch nicht so berauschend. Erst in 1024x768 kommt durchgehend flüssiges Spielvergnügen auf.
Sorry...deine beiden FC Bilder sehen um Längen besser aus als das aus den ersten Beispielbildern (und meiner Meinung nach auch besser als das aus den zweiten).
Davon abgesehen: Von wann ist FC?
Und wer weiß, vielleicht regelt Oblivion das LOD abhängig von der Prozessorleistung, ähnlich wie es in Farcry der Fall ist.
Ich hoffe es....
ich glaube ja, dass wegen der 9800 einige einstellungen (also auch abseits vom HDRR und schatten wie eingangs erwähnt) nicht möglich sind und HQ auf ner vernünftigen karte ganz anders aussehen wird als HQ auf der 9800.
Das liegt mit sicherheit nicht an der Grafikkarte das der Hügel so scheisse aussieht. Entweder sieht die Grafik so scheisse aus oder die Sichtweite ist extrem runtergesetzt weil nur ein Athlon XP 2200+ drin werkelt...
In Morrowind half das Sichtweite runtersetzen ja auch sehr bei schwacher CPU. Und ein AthlonXP 2200+ ist nunmal eine sehr sehr sehr schwache CPU.....
Schoki_MADz
2006-03-18, 20:41:14
meinetwegen auch wegen der CPU. vom prinzip, was ich damit meinte, ist doch aber das gleiche.
kann jetztmal screenshots aus den videos von justgamers.de posten? sieht man da die FPS anzeige? wie sind die FPS jetzt ungefähr...
ich hab leider nur isdn da läd man nicht mal schnell über 100MB runter
rokko
2006-03-18, 20:52:18
Der Hügel sieht aber wirklich nicht gut aus.
Dafür brauch man nun wirklich eine teure Hardware. :rolleyes:
Shaft
2006-03-18, 21:00:38
Woher stamm die Bilder übehaupt?
Karümel
2006-03-18, 21:04:41
... und was soll das mit der Schrift ist das für blinde?Größer gehts ja nicht mehr
Konsolenport sei dank.
Xbox 360 = große Schrift.
Spasstiger
2006-03-18, 21:07:52
Der Hügel sieht aber wirklich nicht gut aus.
Dafür brauch man nun wirklich eine teure Hardware. :rolleyes:
Ein Athlon XP 2200+ mit einer Radeon 9800 Pro ist nun wirklich keine teure Hardware.
trollkopf
2006-03-18, 21:08:52
das video ruckelt dermassen, das ist nicht spielbar.
EvilOlive
2006-03-18, 21:09:09
Wie sieht es auf Mittelmaß-PCs aus?
http://www.justgamers.de/?page=news&news_id=42240
Der Unterschied zwischen Hohen und Mittleren Details ist bei ner R9800 Pro mit der Lupe zu suchen. Außer bei ein paar Büschen (wird nur bei hohen details dargestellt) kann ich da keinen Unterschied erkennen.
EDIT: Ein paar Steine fehlen bei der mittleren Detailstufe auch.
Das Ingame-Video in hoher Qualität gleicht eher einer Dia-Show. :|
Gouvernator
2006-03-18, 21:13:30
DAS ?! soll Oblivion sein ? Nee, das ist besseres Morrowind. Die Hügel werden auch auf einer 7800Gt so sein , ich habe gelesen das in der Ferne Qualität ziemlich abnimmt, stand bei PowerPlay oder so.
IceLord
2006-03-18, 21:13:37
THREE DAYS TO GO (http://www.elderscrolls.com/downloads/media_movies.htm) Video
Kladderadatsch
2006-03-18, 21:16:39
THREE DAYS TO GO (http://www.elderscrolls.com/downloads/media_movies.htm) Video
wo?:confused:
also bei mir hörts beim four-days video auf...
Super Grobi
2006-03-18, 21:21:54
wo?:confused:
also bei mir hörts beim four-days video auf...
http://downloads.planetmirror.com/pub/worthplaying/oblivion/TES4_Oblivion_3Days_Trailer.zip
trollkopf
2006-03-18, 21:24:39
Ingame- Video | Hohe Qualität | 58 MB (http://rapidshare.de/files/15838515/The_Elder_Scrolls_Oblivion_Waltkrough_HQ.zip.html)
Thorwan
2006-03-18, 21:27:39
wo?:confused:
also bei mir hörts beim four-days video auf...
http://img382.imageshack.us/my.php?image=ups2re.jpg
*duck*
http://www.3dgamers.com/games/es4oblivion/downloads/
das video ruckelt dermassen, das ist nicht spielbar.
mhh und wie ist das video bei mittleren details? ruckelt das auch noch stark?
Ich mein auf den Screenshots seh ich keinen/kaum unterschied zwischen Mittleren Details und Max. Details....
Ausser hier und da etwas mehr Grass...wobei es auf Mittleren Details ohne das Giftgrüne Gras bald noch besser ausschaut.
Vielleicht heisst Mittlere Details einfach nur die anzahl der Objekte...und sie Haben bei High Details die Texturen trotzdem auf low oder medium....
die 9800Pro hat ja auch nur 128MB ram
Darkchylde24
2006-03-18, 21:28:18
Also ich weiß nicht die Screenshots von Justgamers zeigen einem ein völlig anderes Bild von der "Grafikpracht" als die bisherigen!
Ich wollte das gerade mal vergleichen, sagt mal spinn ich jetzt oder sind auf der offiziellen Seite die Screenshots nicht mehr erreichbar? Da sind nur noch Wallpaper etc.!?
*seufz.. in der PC Games 03, ist noch von vielen Abstürzen die Rede vor allem bei max. Details und das sie daran arbeiten würden.. wenn ich mir jetzt 1+1 zusammen zähle wirkt es für mich als wenn die Lösung weniger Details lautete.
Popeljoe
2006-03-18, 21:29:26
countdown trailer 4 herausgegeben:
http://www.gametrailers.com/gamepage.php?id=1688
edit:
die kirche erinnert mich ja extrem an notre dame: :eek:
http://en.wikipedia.org/wiki/Image:Notre-Dame-night.jpg
Es gab doch einen Mod für Morrowind "Wizards Island" dort hatten sie die Kathedrale von Chartres eingebaut! ;)
Ideenklau?
P1
trollkopf
2006-03-18, 21:29:59
das high quality video ruckelt. das andere habe ich nicht gesehen.
edit:
tja lesen bildet:)
Durch Abfilmen sind außerdem negative Schwankungen in der Framerate eingetreten.
Popeljoe
2006-03-18, 21:38:11
Hm, mittlere Details heißt also Morrowind mit etwas besseren Texturen?
Damit kann ich leben, wenn das Game bei mir halbwegs ruckelfrei läuft!
Scheiß auf Eye candy! Ich will Spannung und ne gute Geschichte!!! :D
P1
stimmt schon grafik ist bei morrowind+nachfolger sicherlich nicht das wichtigste...aber etwas enttäuschend sehen ein paar nicht offizielle screenshots schon aus....
das Gelände erinnert mich etwas an Battleground Europe dieser WWII Simulation...wobei das sogar noch besser ausschaut von der Vegetation her.
Slipknot79
2006-03-18, 21:49:09
Na bin schon gespannt was aus dem gayme wird oO
Piffan
2006-03-18, 21:49:21
Ich höre schon jetzt das Geschrei: Alles gefaked, kleine Sichtweite, schlechte Engine, unfähige Progger usw........
Irgendwie scheint es sich immer wieder zu wiederholen: Angeheizt von Sreenshots und Hype glauben viele an den Weihnachtsmann..........
Schaut Euch Farcry an, dann seht ihr, was technisch drin ist. Oder falls das Lichtmodell ausgefeilter ist, schaut euch Fear oder Doom III/ Quake an. Oder Splinter Cell III......Es kommt drauf an, worauf der Fokus gelegt wird, die eierlegende Wollmilchsau muss erst noch gezüchtet werden.
Unendliche Sichtweite, hohe Zahl von Objekten, gestochen scharfe Texturen und Echtzeitschatten aller Objekte wird es nie gleichzeitig geben können.........
Aber zu den Screens: Das LOD ist imho überdeutlich. So war es bei Farcry anfangs auch, später mit stärkerer Hardware konnte man da kräftig dran drehen und dann gings. Wahrscheinlich wird die Engine je nach Einstellung die Hardware stets maximal zu fordern.
Die NPCs: Sehen leider wirklich "alt" aus. Ganz schlimm empfinde ich die Polygongrenzen am Hals. Matrixskinning hat sich wohl noch nicht durchgesetzt bei den Machern von Oblivion. Trost: Dito bei Gothic II, dennoch ein tolles Spiel.
Abwarten und das fertige Spiel in Augenschein nehmen, ob es was taugt, entscheidet weniger die Technik als vielmehr der Content. Wenn da wieder so viel Herzblut drinsteckt wie im Vorgänger, kann nix schiefgehen und das Ding verkauft sich wie geschmiert. :)
Spasstiger
2006-03-18, 21:49:21
das video ruckelt dermassen, das ist nicht spielbar.
Wenn ich mit Fraps ein flüssig laufendes Spiel aufzeichne, ruckelt das auch abnormal. Und wenn ich Fear oder CoD 2 mit meiner Radeon 9700@Pro auf vollen Details in 1280x960 spiele, ruckelt das auch abnormal. ;)
Nick Nameless
2006-03-18, 22:01:03
Angeheizt von Sreenshots und Hype glauben viele an den Weihnachtsmann.......... Den Weihnachtsmann haben sich die Entwickler aber selbst in die Schuhe zu schieben. Wer anfangs mit einer eierlegenden Wollmichsau wirbt, muss am Ende auch Staub fressen können.
DrZoidberg
2006-03-18, 22:06:09
DAS ?! soll Oblivion sein ? Nee, das ist besseres Morrowind. Die Hügel werden auch auf einer 7800Gt so sein , ich habe gelesen das in der Ferne Qualität ziemlich abnimmt, stand bei PowerPlay oder so.
Nein, auf ne 7800GT wird die Textur in der Ferne sicher nicht so aussehen. Die Qualität nimmt zwar ab, aber nicht so stark. Auf nem High-End-System wird es so aussehen wie auf der 360 und gut ist. Und das Spiel auf der 360 bekommen wir jeden Tag in den Videos zu sehen. Punkt.
Auf ner 9800 Pro mit 128 MB Speicher kann man halt nicht das gleiche erwarten wie auf ner XBOX360.
Slipknot79
2006-03-18, 22:11:14
http://img382.imageshack.us/my.php?image=ups2re.jpg
*duck*
http://www.3dgamers.com/games/es4oblivion/downloads/
Diese 3dgamers.com-links gehören gebannt in dem Forum^^
smallB
2006-03-18, 23:50:07
Da lob ich mir doch die Xbox360 Version ;)
Da lob ich mir doch die Xbox360 Version ;)
Die lässt sich grafikmässig aber nicht tweaken. Da sind die Möglichkeiten bei der PC Version besser ;)
also ich hab mir das video von oblivion auf der 9800pro @ HighDetails jetzt doch mal runtergeladen und angesehen. Es sieht zwar so aus als liefe es als Diashow, aber ich bin mir fast sicher das es an der Videoaufzeichnung liegt. Schaut man sich mal die Stelle an an der man mit diesem Typen einen Dialog hat...so erkennt man das diese auch ruckelt obwohl praktisch nicht viel dargestellt ist. Man erkennt jedenfalls keine extremen Performanceeinbrüche. Es läuft (ruckelt) alles in etwa gleich stark. Also denk ich mir mal das das ruckeln an der Videoaufzeichnung liegt und da ingame bestimmt so 20FPS rum waren.
Qualitativ sieht Oblivion da wirklich gut aus....bis auf eben diese Sicht von einer Anhöhe auf den "Wald" ich denke mal das ist wirklich das geringe LOD wegen dem AthlonXP 2200+ ... ein wunder das überhaupt spielbar auf einem AthlonXP 2200+ ist. Ich denke mal DualCore ist zwar schön aber wirklich nicht unbedingt notwendig.
So ein AthlonXP 2200+ macht beim 3DMark05 als CPU Score ca. die Hälfte wie ein A64 @2,5Ghz.
Spasstiger
2006-03-19, 02:16:54
So ein AthlonXP 2200+ macht beim 3DMark05 als CPU Score ca. die Hälfte wie ein A64 @2,5Ghz.
In realen Spielesituationen, die CPU-limitiert sind, ist der Unterschied noch viel deutlicher. Ich habe ja schon bei einem Athlon 64 3000+ bis zu 100% festgestellt gegenüber meinem Pentium 4 2,53 GHz. In Winrar ist der Unterschied noch heftiger.
Sogar Doom 3 profitiert zusammen mit einer Radeon 9800 Pro deutlich von einer schnelleren CPU. Mit dem Athlon XP 2200+ wird man z.B. mit einer 9800 Pro in 1024 high im Standardbenchmark auf schätzungsweise 38 fps kommen. Mit einem Athlon 64 @ 2,5 GHz dagegen sind auch 50 fps drin (hab auch schon 60 fps mit einer 9800 Pro gesehen). Bei höheren Auflösungen oder bei Verwendung von AA bricht die 9800 Pro aber wiederum zu stark ein. Doom 3 wäre also ein Beispiel, wo man auch mit einer 9800 Pro auf jeden Fall noch zu einer stärkeren CPU raten kann.
Und Oblivion sollte sich in dieser Hinsicht wohl ähnlich verhalten. Alleine die KI-Simulation für unter Umständen dutzende NPCs gleichzeitig wird ordentlich CPU-Leistung fressen, schließlich soll ja auf gescriptete Arbeitsabläufe der NPCs verzichtet worden sein. Und die Physikengine wird auch ihren Tribut fordern.
Ein Athlon XP 2200+ könnte in diesem Spiel schon die Untergrenze darstellen.
Sprach man bei Oblivion nicht sogar davon, dass eine CPU von 2,8Ghz das absolute Minimum wäre?
Spasstiger
2006-03-19, 02:52:19
Sprach man bei Oblivion nicht sogar davon, dass eine CPU von 2,8Ghz das absolute Minimum wäre?
Die Mindestanforderung liegt bei Pentium 4 2 GHz oder vergleichbar.
nomad
2006-03-19, 20:02:37
Die Mindestanforderung liegt bei Pentium 4 2 GHz oder vergleichbar.
dazu gibt es hier was interesantes:
http://www.justgamers.de/?page=news&news_id=42240
Spasstiger
2006-03-19, 20:04:39
dazu gibt es hier was interesantes:
http://www.justgamers.de/?page=news&news_id=42240
Rate mal, über was wir hier seit Seite 30 in diesem Thread diskutieren. ;)
Super Grobi
2006-03-19, 20:06:21
dazu gibt es hier was interesantes:
http://www.justgamers.de/?page=news&news_id=42240
Das wurde doch gestern schon mehr als ausführlich durch gekaut. Da stammen auch die ach so schlechten Bilder her. Wenn man den Artikle lesen kann, weiss man auch warum und postet nicht imer son Quark wie: "So scheisse sieht das Spiel aus?"
Denke mal das wir morgen oder übermorgen echte Ingame-Pix zu sehen bekommen.
SG
Wieso morgen? :eek: Ich bin schockiert...
Spasstiger
2006-03-19, 20:10:30
Wieso morgen? :eek: Ich bin schockiert...
Weil morgen der US-Release ist.
Ups, das wußte ich nicht. Na, da bin ich ja mal auf die Ingame-Screens gespannt und welche Wahrheit denn nun wahr ist :tongue:
msilver
2006-03-19, 20:15:59
danke für den justgamers link, denn so gebündelt finde ich es besser als ab seite 30
Wie kommt das, das so eine seite wie JustGamers (wo die Mods in den Foren damit "angeben" das sie das Game schon jetzt zocken können) schon eine Preview Version haben, aber die seriösen Gameseiten nicht? Nichmal die großen US-Seiten.
Ano
Super Grobi
2006-03-19, 20:31:14
Wie kommt das, das so eine seite wie JustGamers (wo die Mods in den Foren damit "angeben" das sie das Game schon jetzt zocken können) schon eine Preview Version haben, aber die seriösen Gameseiten nicht? Nichmal die großen US-Seiten.
Ano
Warum fragst du uns das? SChreib denen das doch mal ins Forum (wo die protzen)?
Vieleicht haben die besonderte Kontakte? Keine Ahnung wie sowas läuft...
SG
Spasstiger
2006-03-19, 20:59:26
Ist eigentlich bekannt, ob es bei Walmart und anderen Handelsketten wieder Mitternachtsverkäufe geben wird? Dann könnten wir nämlich schon morgen früh die ersten Screenshots von Fans in Augenschein nehmen.
Popeljoe
2006-03-19, 21:11:06
danke für den justgamers link, denn so gebündelt finde ich es besser als ab seite 30
:up: Jo!
Aber wenn die Frames auch nur ansatzweise spielbar sind, langt mir 1024er Auflösung doch dicke!
Ich werd mir mal den Video saugen!
Man 20 Min wartezeit... ;(
P1
The Cell
2006-03-19, 21:13:26
Bin ich eigentlich der einzige Meckerhansel, der findet, dass die Grafik nicht sonderlich prall aussieht?
Die Screenshots wirken auf mich nicht überzeugend. Platte Hügel, das Gras konnte ich nicht erkennen...
Irgendwie hinterlassen die Screenshots bei mir eine böse Vorahnung.
MfG,
QFT
rokko
2006-03-19, 21:15:23
Ist eigentlich bekannt, ob es bei Walmart und anderen Handelsketten wieder Mitternachtsverkäufe geben wird?
So nötig ist es nicht als das ich bei Walmart kaufen würde.
DeMarco
2006-03-19, 21:17:01
Let the hype continue....Day 2 Vid :eek:
http://www.hexcorps.net/tes4_countdown_2days.wmv
Oh Mann, sehe gerade, dass die dt. Version schon am 23. erscheint & meine US Collector erst am 24. verfügbar ist. Hoffe sie kommt noch zum Wochenende hin.
Okaysoft FTW!
Popeljoe
2006-03-19, 21:18:18
Bin ich eigentlich der einzige Meckerhansel, der findet, dass die Grafik nicht sonderlich prall aussieht?
Die Screenshots wirken auf mich nicht überzeugend. Platte Hügel, das Gras konnte ich nicht erkennen...
Irgendwie hinterlassen die Screenshots bei mir eine böse Vorahnung.
MfG,
QFT
Naja, wenn man Morrowind mit den Naturpatches gespielt hat, wird man etwas mehr erwarten...
Aber wie schon gesagt: imo ist die Grafik Zweitrangig!
Ich will ne spannende Story - Punkt -
P1
Spasstiger
2006-03-19, 21:22:24
So nötig ist es nicht als das ich bei Walmart kaufen würde.
Ich rede nicht vom Verkauf in Deutschland oder Europa, sondern vom Verkauf in den USA. Dort sind Mitternachtsverkäufe üblich, ich erinnere mich noch an den Doom-3-Release mit beinahe kilometerlangen Schlangen vor den Geschäften kurz vor Mitternacht.
Banshee18
2006-03-19, 21:24:59
Erscheint eigentlich auch die deutsche Version gleich am 24. oder erst später?
Popeljoe
2006-03-19, 21:26:50
Ich hoffe doch, daß Gothic III auch in D'land etwas früher rauskommt, als in den Staaten! :P
P1
Spasstiger
2006-03-19, 21:27:19
Erscheint eigentlich auch die deutsche Version gleich am 24. oder erst später?
Die US-Version erscheint morgen, am 23./24. kommt die deutsche Version.
Super Grobi
2006-03-19, 21:35:10
Was hat das jetzt mit dem 23. auf sich? Wieso jetzt auf EINMAL 1 Tag früher???
Hab da nichts gegen (hätte es gerne MORGEN), will nur wissen woher die Info und warum und überhaupt...
SG
Edit:
So nötig ist es nicht als das ich bei Walmart kaufen würde.
DA würde ich noch nicht mal ne Packung Toast kaufen!!! Wer da irgentwas kauft und den Schuppen unterstützt.... ich sag das lieber nicht. Das würde gleich 6 Wochen Zwangsurlaub geben *ggg*
Schoki_MADz
2006-03-19, 21:38:01
ist eigentlich bekannt ob diese ganzen countdown videos von der PC oder der Xbox version stammen? nur so aus interesse...
Spasstiger
2006-03-19, 22:06:00
ist eigentlich bekannt ob diese ganzen countdown videos von der PC oder der Xbox version stammen? nur so aus interesse...
Gerüchteweise Xbox 360. Darauf deutet imo auch das fehlende AF hin (wobei das scheinbare Fehlen von AF auch an Videoartefakten liegen kann).
Die US-Version erscheint morgen, am 23./24. kommt die deutsche Version.
w00t? morgen am montag kommt schon die us version? *freu*
Bin ich eigentlich der einzige Meckerhansel, der findet, dass die Grafik nicht sonderlich prall aussieht?
Die Screenshots wirken auf mich nicht überzeugend. Platte Hügel, das Gras konnte ich nicht erkennen...
Irgendwie hinterlassen die Screenshots bei mir eine böse Vorahnung.
MfG,
QFT
Immer noch nicht mitbekommen, dass die Screens aufgrund einer 9800Pro entstanden sind? Bist doch sonst immer ein sehr aufmerksamer Leser :ulol:
Super Grobi
2006-03-19, 23:34:12
w00t? morgen am montag kommt schon die us version? *freu*
Morgen US ---> morgen nacht bei uns (US) --> also DI morgens erste Bilder der US bei uns.
Wenn das mit dem 23. bei uns stimmt (möchte Quellen!). Sollten die guten Shops ja am MI versenden und ICH am DO morgen das Game hier haben... (und dann Bild @ 1280x1024 @ Männer-PC machen können)
Gruss
SG
rokko
2006-03-19, 23:38:18
Sollten die guten Shops ja am MI versenden und ICH am DO morgen das Game hier haben... (und dann Bild @ 1280x1024 @ Männer-PC machen können)
Gruss
SG
Und wenns ne Woche später wäre? Was würde deinem Leben fehlen?
Sicher ist man gespannt auf das Spiel aber so derb? Zählen da noch Tage oder nur die Minuten?
Super Grobi
2006-03-19, 23:44:01
Und wenns ne Woche später wäre? Was würde deinem Leben fehlen?
Sicher ist man gespannt auf das Spiel aber so derb? Zählen da noch Tage oder nur die Minuten?
Naja,
ich freu mich drauf und hätte es lieber gestern als morgen :biggrin: Für jemand der das Game gerne spielen möchte ist der 24. schon ein Misttermin. Den das ist ein FR. Wenn da gepennt wird, hat man das Game dann erst DI oder MI.
Aber das kann nur jemand nach fühlen, der auch so gerne das Spiel spielen möchte wie ich ;D
Gruss
SG
p.s.
die Welt geht nicht unter, wenn ich warten muss... aber ich warte nicht gerne...
Darkchylde24
2006-03-19, 23:45:15
Und wenns ne Woche später wäre? Was würde deinem Leben fehlen?
Sicher ist man gespannt auf das Spiel aber so derb? Zählen da noch Tage oder nur die Minuten?
Noch später? Dann dreh' ich durch. ;)
Ich zähle die Minuten das kannst du mir glauben.
Ich habe schon genau überlegt welchen Character ich spielen werde, welche Klassen und auf welche Attribute ich gehe. Ich habe die Map bereits ausgedruckt bzw. den Screenshot davon und habe alle Berichte, Videos und Infos gesehen und gelesen... heißer kann man gar nicht mehr auf das Game sein. Wenn du willst bin ich schon mitten drin *fg
Der 23. dürfte hier in den Raum geworfen sein da es bei Okaysoft angegeben ist. :)
Würde ich aber nicht soviel drauf geben.
Super Grobi
2006-03-19, 23:48:35
Noch später? Dann dreh' ich durch. ;)
Ich zähle die Minuten das kannst du mir glauben.
Ich habe schon genau überlegt welchen Character ich spielen werde, welche Klassen und auf welche Attribute ich gehe. Ich habe die Map bereits ausgedruckt bzw. den Screenshot davon und habe alle Berichte, Videos und Infos gesehen und gelesen... heißer kann man gar nicht mehr auf das Game sein. Wenn du willst bin ich schon mitten drin *fg
Der 23. dürfte hier in den Raum geworfen sein da es bei Okaysoft angegeben ist. :)
Würde ich aber nicht soviel drauf geben.
Also hast du das Spiel schon quasi im Kopf durch und willst dir nur noch die End-Sequenz angucken?
SG
rokko
2006-03-19, 23:49:26
Aber das kann nur jemand nach fühlen, der auch so gerne das Spiel spielen möchte wie ich ;D
So ein bischen verstehe ich das ja auch. Gibt ja auch Spiele auf die ich mich freue. Oblivion gehört auch dazu.
Aber so dringend ist mir kein Spiel mehr. Ich gehöre wohl eher zur alten Generation der Patchabwarter. :wink:
Ich gehöre wohl eher zur alten Generation der Patchabwarter. :wink:
Hehe, bald werden die Ersten hier rumheulen... weil es dort zwickt, dort irgendwie ruckelt und die Gafik ist ja auch nicht der Hammer.....ich warte auch ab. Aber kaufen tu ich es mir. ;D
Fozzy
2006-03-20, 00:09:52
Schlimmer als Sacred KANN es nicht werden, also wirds gekauft so wie ich es sehe :)
Spasstiger
2006-03-20, 00:10:50
Naja,
ich freu mich drauf und hätte es lieber gestern als morgen :biggrin: Für jemand der das Game gerne spielen möchte ist der 24. schon ein Misttermin. Den das ist ein FR. Wenn da gepennt wird, hat man das Game dann erst DI oder MI.
Ich habs vorbestellt, hoffe aber, dass ich es erst am Mittwoch nach dem 24. bekomme, weil ich da meine letzte Prüfung in diesen Semesterferien schreibe (Informatik I/II, wird wahrscheinlich kein Zuckerschlecken). ;)
P.S.: 33 Euro sind wirklich ein Spitzenpreis für das Spiel. Und ich mach mit meinem Bruder 50:50, also nur 16,50 Euro für jeden. Da brauch ich nicht warten, bis das Spiel zum Budgetpreis verfügbar ist. :D
Super Grobi
2006-03-20, 00:13:01
Bug-Free gibts doch eh nicht.
Man kann natürlich warten bis Computer Bild das Game im Jahr 2008 mit auf die Blue-Ray brennt.
Aber das ist so, als wenn ich heute Doom3 zocke --> Gut, aber kalte Suppe.
SG
rokko
2006-03-20, 00:15:01
Ich habs vorbestellt, hoffe aber, dass ich es erst am Mittwoch nach dem 24. bekomme, weil ich da meine letzte Prüfung in diesen Semesterferien schreibe (Informatik I/II, wird wahrscheinlich kein Zuckerschlecken). ;)
Beglücke uns lieber mit ner bestanden Prüfung. Oblivion rennt nicht weg. :wink:
Super Grobi
2006-03-20, 00:16:55
Beglücke uns lieber mit ner bestanden Prüfung. Oblivion rennt nicht weg. :wink:
Der Termin für Spassti auch nicht ;D
SG
Banshee18
2006-03-20, 00:21:18
Naja,
ich freu mich drauf und hätte es lieber gestern als morgen :biggrin: Für jemand der das Game gerne spielen möchte ist der 24. schon ein Misttermin. Den das ist ein FR. Wenn da gepennt wird, hat man das Game dann erst DI oder MI.
Aber das kann nur jemand nach fühlen, der auch so gerne das Spiel spielen möchte wie ich ;D
Gruss
SG
p.s.
die Welt geht nicht unter, wenn ich warten muss... aber ich warte nicht gerne...
Ich kann mitfühlen. :biggrin:
Wenn du es so eilig hast, warum kaufst du es dann nicht im nächsten Media Markt? Die paar € machen den Bock auch nicht fett. Ich mache das jedenfalls so.
MfG,
Banshee
P.S.: 33 Euro sind wirklich ein Spitzenpreis für das Spiel. Und ich mach mit meinem Bruder 50:50, also nur 16,50 Euro für jeden. Da brauch ich nicht warten, bis das Spiel zum Budgetpreis verfügbar ist. :D
:eek: ich hoffe ihr spielt das dann nicht gleichzeitig :rolleyes: :P
vielleicht haben wir Glück und die Versandhändler schicken es am 20. bzw. 21 schon los :biggrin:
Super Grobi
2006-03-20, 00:27:12
Ich kann mitfühlen. :biggrin:
Wenn du es so eilig hast, warum kaufst du es dann nicht im nächsten Media Markt? Die paar € machen den Bock auch nicht fett. Ich mache das jedenfalls so.
MfG,
Banshee
Weil ich min. 3H für hin und zurück brauche. Kein Prob wenn der Artikel da ist, ABER ich bin schon oft für Nüsse gefahren *grrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*
Deshalb ---> Amazon und gut ist.
SG
Spasstiger
2006-03-20, 00:31:00
:eek: ich hoffe ihr spielt das dann nicht gleichzeitig :rolleyes: :P
Oh welch Skandal, man teilt sich die Kosten für ein Spiel. :eek:
Da müsste ich ja direkt hinter Gitter.
Super Grobi
2006-03-20, 00:33:10
Oh welch Skandal, man teilt sich die Kosten für ein Spiel. :eek:
Da müsste ich ja direkt hinter Gitter.
Drauf geschissen!!! Zu zweit macht das Game bestimmt mehr spass!
SG
Oh welch Skandal, man teilt sich die Kosten für ein Spiel. :eek:
Da müsste ich ja direkt hinter Gitter.
ich stell mir schon die neue Generation von Tauschbörse vor. Jeder zahlt 1 cent...man teilt sich die Kosten für ein Spiel :biggrin: :rolleyes:
Super Grobi
2006-03-20, 00:50:18
ich stell mir schon die neue Generation von Tauschbörse vor. Jeder zahlt 1 cent...man teilt sich die Kosten für ein Spiel :biggrin: :rolleyes:
Wenn man aus den 1 Cent nen 10er (Euro) machen würde, dann könnte man sich vorstellen, dass man allen Movie + Games + Sounds legal saugen könnte.
Aber das ist ein anderes Thema...
SG
Banshee18
2006-03-20, 00:58:14
Weil ich min. 3H für hin und zurück brauche. Kein Prob wenn der Artikel da ist, ABER ich bin schon oft für Nüsse gefahren *grrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr*
Deshalb ---> Amazon und gut ist.
SG
Boah, wo wohnst denn du? :eek: Ein Telefon zum Anrufen hast du auch nicht? ;)
Helft mir mal bei einer schweren Entscheidung. Soll ich die US-Version nehmen, für die es sicher mehr Plugins geben wird, oder doch die Deutsche? Ich kann zwar ganz gut Englisch, tu´ mich aber natürlich doch ein wenig schwerer als mit Deutsch.
Wie macht ihr das?
Hucke
2006-03-20, 01:13:35
Boah, wo wohnst denn du? :eek: Ein Telefon zum Anrufen hast du auch nicht? ;)
Helft mir mal bei einer schweren Entscheidung. Soll ich die US-Version nehmen, für die es sicher mehr Plugins gibt, oder doch die Deutsche? Ich kann zwar ganz gut Englisch, tu´ mich aber natürlich doch ein wenig schwerer als mit Deutsch.
Wie macht ihr das?
Englisch oder US. Ich seh da eigentlich keinen Unterschied, nur daß die US Version fast immer bessere Sprecher hat und bei Oblivion wohl mehr Mods für die US erscheinen werden.
Ich hab die deutsche genommen. Von Morrowind hatte ich erst die englische, da es die deutsche ja erst viel später gab. Die vielen Texte haben mir gereicht....ich kann zwar gut Englisch aber man muss sich dort eindeutig zu sehr konzentrieren und kann somit die Story nicht einfach auf sich wirken lassen....irgendwann war man gefrustet und hat sich nicht mehr alles durchgelesen.
Helft mir mal bei einer schweren Entscheidung. Soll ich die US-Version nehmen, für die es sicher mehr Plugins geben wird, oder doch die Deutsche? Ich kann zwar ganz gut Englisch, tu´ mich aber natürlich doch ein wenig schwerer als mit Deutsch.
Wie macht ihr das?
Hab mal gehört das, dank des neuen Editors, die fanplugins nun auf allen Versionen laufen sollen also unabhängig von der Sprache sind!
Spasstiger
2006-03-20, 08:53:37
Bei ein paar Vorbestellern bei Gamestop hat sich der Bestelltstatus in "Processing" geändert. Die amerikanischen Fans gehen davon aus, das Spiel morgen in den Händen halten zu können, aber mal schauen, vielleicht bekommen wir noch heute ein paar Usermeinungen und Screenshots zu Gesicht.
SteWanKenobi
2006-03-20, 11:05:03
Laut gamestar.de wird es wohl einen optimierten FW für das Game geben!
http://www.gamestar.de/news/pc-spiele/rollenspiele/32269/
Ich find's als 6800GT Besitzer nicht schlecht, aber wie ich das Forum kenne, werden sich jetzt dann einige Leute schon mal auf den Weg in den virtuellen Schützengraben machen um sich auf einen netten Flamewar vorzubereiten! Mal wieder das alte Lied vom Hersteller x hat Entwickler y Geld gegeben, damit's auf dessen HW besser läuft!
Na dann viel Spass beim Disskutieren, ich freue mich weiterhin in aller Stille auf das Game ;D !
Spasstiger
2006-03-20, 11:08:22
Ich find's als 6800GT Besitzer nicht schlecht, aber wie ich das Forum kenne, werden sich jetzt dann einige Leute schon mal auf den Weg in den virtuellen Schützengraben machen um sich auf einen netten Flamewar vorzubereiten! Mal wieder das alte Lied vom Hersteller x hat Entwickler y Geld gegeben, damit's auf dessen HW besser läuft!
So ein Quatsch. Ich habe hier noch kein einziges Kommentar in der Richtung gelesen. Und Treiber mit speziellen Optimierungen für ein Spiel direkt nach dessen Release sind keine Seltenheit.
Laut gamestar.de wird es wohl einen optimierten FW für das Game geben!
http://www.gamestar.de/news/pc-spiele/rollenspiele/32269/
Ich find's als 6800GT Besitzer nicht schlecht, aber wie ich das Forum kenne, werden sich jetzt dann einige Leute schon mal auf den Weg in den virtuellen Schützengraben machen um sich auf einen netten Flamewar vorzubereiten! Mal wieder das alte Lied vom Hersteller x hat Entwickler y Geld gegeben, damit's auf dessen HW besser läuft!
Na dann viel Spass beim Disskutieren, ich freue mich weiterhin in aller Stille auf das Game ;D !
Naja man müsste wenn dann höchstens vermuten das von ATI da Geld geflossen ist, denn sonst hätte man die Gameengine angepasst und müsste keinen Treiber rausbringen der Performanceprobleme behebt.
nomad
2006-03-20, 11:18:58
das glaub ich nicht.da steht nvidia hat mit bateshda eng zusammen gearbeitet :rolleyes:
das glaub ich nicht.da steht nvidia hat mit bateshda eng zusammen gearbeitet :rolleyes:
Um jetzt das Kind wieder aus dem Brunnen zu holen und den Treiber drauf abzustimmen ja.
In den meisten Entwicklerrechnern waren 9800Pro verbaut :rolleyes:
kifeta
2006-03-20, 11:22:12
Solange die Bildqualität nicht dadurch schlechter wird, ist das OK.
dildo4u
2006-03-20, 11:23:43
In den meisten Entwicklerrechnern waren 9800Pro verbaut :rolleyes:
Was ich für unsinn halte als die Engine in die Finale Phase ging gabs schon X800 und GF7 Karten und eigentlich sollte SM3.0 zumindest ein Speedvorteil bringen.Also der eigentlich Engine Programmierer hat sicher immer das neuste vom Neusten.Also wenn die was für SM3.0 Optemiert haben hätte sie es auf GF6 oder 7 Karten machen müssen weil die X1800XT ja zu spät kam.
SteWanKenobi
2006-03-20, 11:25:17
Genau auf das "eng zusammengearbeitet" habe ich angespielt! Aber da sich das Game laut dem selben Link eh nicht zum Benchen eignet und die XT1900 im Singlekarten Bereich eh alles in Grund und Boden rendert, werden die Streitereien wohl ausbleiben! Ich konnte mich halt nur zu gut an D3 und HL2 erinnern, wo es ziemliches Gezetter gab!
Was ich für unsinn halte als die Engine in die Finale Phase ging gabs schon X800 und GF7 Karten und eigentlich sollte SM3.0 zumindest ein Speedvorteil bringen.
Warum soll das Unsinn sein? Ein Entwickler steckt sich die Hardware in den Rechner für dessen Zielgruppe er entwickelt.. und eine 9800Pro ist guter Durchschnitt der jetzigen Käuferschicht.
Sicher haben sie auch ein paar Rechner mit SM3 Karten gehabt. Aber Oblivion ist seit 2002 in der Mache. Aber wenn Oblivion so optimiert wäre bräuchte man nicht zum Release gleich einen extra Treiber raushaun :wink:
Erinnert mich irgendwie an die GeForce FX Zeit wo für jedes Spiel per hand die Shader ausgetauscht wurden, das das überhaupt noch irgendwie läuft.
Genau auf das "eng zusammengearbeitet" habe ich angespielt! Aber da sich das Game laut dem selben Link eh nicht zum Benchen eignet und die XT1900 im Singlekarten Bereich eh alles in Grund und Boden rendert, werden die Streitereien wohl ausbleiben! Ich konnte mich halt nur zu gut an D3 und HL2 erinnern, wo es ziemliches Gezetter gab!
Eilige Treiber-Releases bringen nicht immer nur Gutes mit sich - man denke an die nVidia-Treiber für FarCry zu geforce FX-Zeiten. Aber die G70/71er sind doch im Vgl. zur aktuellen ATI-Riege wesentlich konkurrenzfähiger als damals die FX gegen die 9800er. Von ATI hört man nix bzgl. spezieller Oblivion-Treiber, oder doch?
Gortha
2006-03-20, 11:33:24
Was ich für unsinn halte als die Engine in die Finale Phase ging gabs schon X800 und GF7 Karten und eigentlich sollte SM3.0 zumindest ein Speedvorteil bringen.Also der eigentlich Engine Programmierer hat sicher immer das neuste vom Neusten.Also wenn die was für SM3.0 Optemiert haben hätte sie es auf GF6 oder 7 Karten machen müssen weil die X1800XT ja zu spät kam.
Oblivion ist SM2.0 und untersützt SM3.0 nur an einigen Stellen.
Damit ist die Basis mit 2.0 gelegt, ob nun ne GF7 oder X1900 drinne
steckt ist dann schnurz piep egal.
Aber du warst ja schon immer ein NVidia-fanboy und neuerdings auch
extremer Consoleró. ;D
Ein Entwickler steckt sich die Hardware in den Rechner für dessen Zielgruppe er entwickelt..
Und wieviele Entwickler arbeiten an der Grafik und sind somit auf alle Details angewiesen?
Die meisten Entwickler bei einem solchen Projekt haben nichts direkt mit der Grafik zu tun und kommen damit auch mit einer kleineren Grafikkarte aus.
nomad
2006-03-20, 11:36:29
naja am freitag sind wir alle schlauer :wink:
naja am freitag sind wir alle schlauer :wink:
... oder morgen, wenn das Game in den Staaten veröffentlich ist und die Foren dort überquillen ...
Und wieviele Entwickler arbeiten an der Grafik und sind somit auf alle Details angewiesen?
Die meisten Entwickler bei einem solchen Projekt haben nichts direkt mit der Grafik zu tun und kommen damit auch mit einer kleineren Grafikkarte aus.
eben nicht. Wenn ich eine Engine optimiere und "Flüssig" mache steck ich mir das rein wodrauf es einigermassen flüssig laufen soll
Und Grafiker haben mit der Engine nix zutun die modeln mit Maya oder malen ein paar Terxturen mit Photoshop.
Leute die die Performance des Spiels entscheident beinflussen sind Programmierer...und die können nur auf was gut optimieren was auch im Rechner steckt, und das waren nunmal 9800pro Grösstenteils.
vielleicht wurde NVidia ja durch sowas:
http://img425.imageshack.us/img425/6246/12ez.jpg
aufgeschreckt und schiebt nun einen Treiber raus :rolleyes:
(del676)
2006-03-20, 11:54:26
... oder morgen, wenn das Game in den Staaten veröffentlich ist und die Foren dort überquillen ...
sollte das ned schon heute kommen?
naja die amis sind mindestens 6h zurück da is es dann hier nacht wenn die das ding gekauft und ausprobiert haben
eben nicht. Wenn ich eine Engine optimiere und "Flüssig" mache steck ich mir das rein wodrauf es einigermassen flüssig laufen soll
Und Grafiker haben mit der Engine nix zutun die modeln mit Maya oder malen ein paar Terxturen mit Photoshop.
Musiker, Scripter, Designer, Storywriter etc. müssen sich keine sorgen machen, ob etwas flüssig läuft. Dafür sind andere zuständig.
Sie sind aber in der Überzahl.
Leute die die Performance des Spiels entscheident beinflussen sind Programmierer...und die können nur auf was gut optimieren was auch im Rechner steckt, und das waren nunmal 9800pro Grösstenteils.
In dem Zitat steht etwas von Entwicklern, nicht von Programmierern, die für Grafik und Optimerung zuständig sind. Das sind vielleicht 3-4 Leuten und die werden schon entsprechende Rechner bekommen haben. Für den Rest wäre dies aber reine Geldverschwendung.
Ein Problem ist das Leute meistens nicht lesen, was wirklich geschrieben wird, sondern direkt Zeugs reininterpretieren.
Musiker, Scripter, Designer, Storywriter etc. müssen sich keine sorgen machen, ob etwas flüssig läuft. Dafür sind andere zuständig.
Sie sind aber in der Überzahl.
In dem Zitat steht etwas von Entwicklern, nicht von Programmierern, die für Grafik und Optimerung zuständig sind. Das sind vielleicht 3-4 Leuten und die werden schon entsprechende Rechner bekommen haben. Für den Rest wäre dies aber reine Geldverschwendung.
Ein Problem ist das Leute meistens nicht lesen, was wirklich geschrieben wird, sondern direkt Zeugs reininterpretieren.
Wie sinnig würde es sein expliziet zu erwähnen das 9800pro in entwicklerrechnern steckten wenn das nur rechner von Musikern und dergleichen wären? :| :rolleyes:
Nee Problem ist das einige Leute einige Sachen nicht einsehen wollen, obwohl sie offensichtlich sind ;)
Dann erklär mir mal wieso NVidia zum Oblivion Release direkt einen Treiber nachschieben muss wenn die Engine doch so gut auf NVidia Karten läuft? :rolleyes:
Super Grobi
2006-03-20, 12:33:55
@Odal
Das ist aber ne doofe Grafik, findest du nicht? Was soll man da rauslesen könnne? Das eine X1900 schneller ist als eine 7800gtx? Das wusste ich schon vorher und die 512mb der Ati wird wohl auch ne große Rolle spielen. Da hätte mal ne 7800gtx 512MB mitgetestet werde sollen, dann könnte man da schon etwas mehr rauslesen können.
@All
Ist euch das nicht in dem Link zum FW Treiber aufgefallen.
Zitat:
Exakte Benchmark-Vergleiche sind übrigens nicht möglich, da das Spiel Gras und Felsen teilweise zufällig in der Gegend platziert.
Finde ich sehr interessant. Ob das CPU abhängig ist?
Gruss
SG
dildo4u
2006-03-20, 12:37:49
Wie sinnig würde es sein expliziet zu erwähnen das 9800pro in entwicklerrechnern steckten wenn das nur rechner von Musikern und dergleichen wären? :| :rolleyes:
Nee Problem ist das einige Leute einige Sachen nicht einsehen wollen, obwohl sie offensichtlich sind ;)
Also nochmal das mit der 9800pro ist unsinn weil die 1 zu wenig Grafikspeicher hat und das HDR garantiert nicht darauf programmiert wurde die die Vergleichsbilder reingestellt haben haben ja geschrieben das es Bildfehler auf der 9800pro gibt wie kann das sein wenn angeblich auf der 9800pro entwickelt wurde?
• "ATI Radeon 9800Pro 128 MB
Wichtig: Einige Einstellungen wie HDR-Beleuchtung, Grasschatten und Schattendetails konnten Hardwarebedingt nicht aktiviert werden. Anti Aliasing wurde aus Performancegründen und Gesichterschatten aufgrund von Darstellungsfehlern manuell deaktiviert."
http://www.justgamers.de/?page=news&news_id=42240
Spasstiger
2006-03-20, 12:38:09
@Odal
Das ist aber ne doofe Grafik, findest du nicht? Was soll man da rauslesen könnne? Das eine X1900 schneller ist als eine 7800gtx?
In dem Vergleich taucht gar keine 7800 GTX auf.
Gortha
2006-03-20, 12:41:21
@Odal
Das ist aber ne doofe Grafik, findest du nicht? Was soll man da rauslesen könnne? Das eine X1900 schneller ist als eine 7800gtx? Das wusste ich schon vorher und die 512mb der Ati wird wohl auch ne große Rolle spielen. Da hätte mal ne 7800gtx 512MB mitgetestet werde sollen, dann könnte man da schon etwas mehr rauslesen können.
@All
Ist euch das nicht in dem Link zum FW Treiber aufgefallen.
Zitat:
Exakte Benchmark-Vergleiche sind übrigens nicht möglich, da das Spiel Gras und Felsen teilweise zufällig in der Gegend platziert.
Finde ich sehr interessant. Ob das CPU abhängig ist?
Gruss
SG
@ Grobi
Dort sieht man ganz klar, dass eine 7900GTX mit ebenfalls 512 VRam
keine Schnitte macht und selbst eine uralte X850XTpe fast so schnell wie eine
7900GT ist.
Von einer 7800 kann ich da nichts lesen.
Wieviel Gras platziert wird ist sicher Graka abhängig.
Auf die CPU wird der zufallsalgorithmus nicht allzusehr drücken.
Ist wohl ne einfache Fehlerstreuung.
Popeljoe
2006-03-20, 12:41:36
Wißt ihr eigentlich, wie oberarschig-beschissen-nervig dieses lächerliche NV/ATI Gebashe hier ist? :mad:
Ändert es etwas am Gameplay ob ich mit 75 FPS oder mit 90 durch Gegend renne, wenn letztlich die Story mies ist und das Spiel zum Gähnen?
Kommt mal runter, Spekulationen in der Richtung könnt ihr hier abliefern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=282839
Viel Spaß beim gegenseitigen Kopf einschlagen! :uup:
Hier sollte es ausschließlich ums Spiel gehen!
P1
Wie sinnig würde es sein expliziet zu erwähnen das 9800pro in entwicklerrechnern steckten wenn das nur rechner von Musikern und dergleichen wären? :| :rolleyes:
Nee Problem ist das einige Leute einige Sachen nicht einsehen wollen, obwohl sie offensichtlich sind ;)
Genauso sinnig wie in irgendwelche Aussagen etwas reinzuinterpretieren, was garnicht da steht.
Es sagt nur aus, dass man das Spiel mit Karte auch spielen kann. Es sagt aber nicht aus, ob das Spiel damit wesentlich schlechter läuft und aussieht. Es lief halt gut genug um damit arbeiten zu können.
Dann erklär mir mal wieso NVidia zum Oblivion Release direkt einen Treiber nachschieben muss wenn die Engine doch so gut auf NVidia Karten läuft? :rolleyes:
Es gehört der Kategorie von Spielen an, die eine Optimerung zugestanden bekommen. Das trifft aber auf alle großen Titel wie FarCry, HL2, Doom3, AoE etc zu.
Das ist nun wirklich nichts besonderes.
Spasstiger
2006-03-20, 12:45:19
wenn letztlich die Story mies ist und das Spiel zum Gähnen?
Woot? Das Spiel wird der Hammer und in keinem Review wurde bisher eine schlechte Wertung vergeben.
(del676)
2006-03-20, 12:45:45
Wißt ihr eigentlich, wie oberarschig-beschissen-nervig dieses lächerliche NV/ATI Gebashe hier ist? :mad:
Ändert es etwas am Gameplay ob ich mit 75 FPS oder mit 90 durch Gegend renne, wenn letztlich die Story mies ist und das Spiel zum Gähnen?
Kommt mal runter, Spekulationen in der Richtung könnt ihr hier abliefern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=282839
Viel Spaß beim gegenseitigen Kopf einschlagen! :uup:
Hier sollte es ausschließlich ums Spiel gehen!
P1
es ändert was wenn du 1920x1200 mit 2xAA 16xAF spielen kannst ( in der nativen tft auflösung ) oder eine auflösung niedriger - interpoliert, oder 1920 ohen AA/AF
Also nochmal das mit der 9800pro ist unsinn weil die 1 zu wenig Grafikspeicher hat
Nö. Der Durchschnittskäufer hat auch nur 128MB man denke nur mal an die vielen FX5900 mit 128 MB und die 9700/9800pro oder 6600GT oder die vielen 6800er mit nur 128MB die noch im Umlauf sind
und das HDR garantiert nicht darauf programmiert wurde
Ich hab ja gesagt das sie sicherlich auch ein paar andere Rechner mit anderen Karten hatten. Hauptsächlich wurde aber auf Rechnern mit 9800Pro programmiert. Die Engine ist ja auch nicht erst seit gestern in der Entwicklung ^^
die die Vergleichsbilder reingestellt haben haben ja geschrieben das es Bildfehler auf der 9800pro gibt wie kann das sein wenn angeblich auf der 9800pro entwickelt wurde?
Bei Herr der Ringe Schlacht um Mittelerde 2 gibt es auf allen erhältlichen SM2/SM3 Karten fehlerhafte und verpixelte Schatten. Wie kann das sein? :rolleyes:
SteWanKenobi
2006-03-20, 12:49:52
eben nicht. Wenn ich eine Engine optimiere und "Flüssig" mache steck ich mir das rein wodrauf es einigermassen flüssig laufen soll
Und Grafiker haben mit der Engine nix zutun die modeln mit Maya oder malen ein paar Terxturen mit Photoshop.
Leute die die Performance des Spiels entscheident beinflussen sind Programmierer...und die können nur auf was gut optimieren was auch im Rechner steckt, und das waren nunmal 9800pro Grösstenteils.
vielleicht wurde NVidia ja durch sowas:
http://img425.imageshack.us/img425/6246/12ez.jpg
aufgeschreckt und schiebt nun einen Treiber raus :rolleyes:
Wenn ich diese Benches so sehe, denke ich auch, dass Nvidia versucht durch den Treiber wieder etwas an Boden gut zu machen! Muss mich da einigen Vorrednern anschließen und hoffe, dass das nicht auf Kosten der Bildqualität geht!
Hihi, die fps bei der 6800GT sind ja echt übel, in 1600x1200 kann ich es also als Textadventure spielen!
>ruckel 10meter nord
>ruckel 20meter ost
>ruckel in höhle
>ruckel monster kaputt
dildo4u
2006-03-20, 12:51:59
Nö. Der Durchschnittskäufer hat auch nur 128MB man denke nur mal an die vielen FX5900 mit 128 MB und die 9700/9800pro oder 6600GT oder die vielen 6800er mit nur 128MB die noch im Umlauf sind
Und PC Entwickler haben noch nie auf die Mittelklasse Rücksicht genommen Call of Duty 2 oder Fear sind mit den Karten unspielbar mit alle Details warum sollte Bethesda da ein Halbes Jahr später weiter unten ansetzen?Und das auch Rollenspiele absolute Hardware Killer sein können hat Ultima 9 gezeigt.
Genauso sinnig wie in irgendwelche Aussagen etwas reinzuinterpretieren, was garnicht da steht.
Es sagt nur aus, dass man das Spiel mit Karte auch spielen kann. Es sagt aber nicht aus, ob das Spiel damit wesentlich schlechter läuft und aussieht. Es lief halt gut genug um damit arbeiten zu können.
1. es wurde oft genug gesagt das es auf ATI Karten angeblich besser laufen soll...
2. die Entwickler sagen das in den Rechnern meistens eine 9800pro steckte...
3. justgamers hat das spiel auf einer etliche Jahre alten 9800Pro (welche ja hier im Forum eher fast lowend ist ^^) getestet und ist zu dem schluss gekommen des es darauf durchaus gut spielbar läuft mit mid/high details (bis auf ein paar sachen)
4. es sind ominöse Benchmarks aufgetaucht die das bestätigen (wobei ich die Authentizität mal absolut anzweifeln würde)
5. nvidia bringt zum oblivion release extra einen treiber für das spiel raus
also ich kann da 1 und 1 zusammenzählen :rolleyes:
Es gehört der Kategorie von Spielen an, die eine Optimerung zugestanden bekommen. Das trifft aber auf alle großen Titel wie FarCry, HL2, Doom3, AoE etc zu.
Das ist nun wirklich nichts besonderes.
Warum soll man denn was optimieren wenns schon sehr gut auf den Karten läuft?
Und Farcry war ja auch so ein Ding wo schnell mal ein Treiber rausmusste :rolleyes:
Spasstiger
2006-03-20, 12:59:18
Hihi, die fps bei der 6800GT sind ja echt übel, in 1600x1200 kann ich es also als Textadventure spielen!
>ruckel 10meter nord
>ruckel 20meter ost
>ruckel in höhle
>ruckel monster kaputt
11 fps sind schon etwas besser als Diashow, sehr Leidensfähige können bei 11 fps Spiele in dieser Art noch zocken. Und wer den Anspruch hat, mit einer 6800 GT ein neues Spiel, das als Grafikhammer gehandelt wird, auf vollen Details in 1600x1200 mit 4xAA flüssig spielen zu können, dem ist nicht zu helfen.
Zusammen mit folgendem Kommentar kommt es mir übrigens so vor, als ob du nur ein wenig bashen willst:
aber wie ich das Forum kenne, werden sich jetzt dann einige Leute schon mal auf den Weg in den virtuellen Schützengraben machen um sich auf einen netten Flamewar vorzubereiten! Mal wieder das alte Lied vom Hersteller x hat Entwickler y Geld gegeben, damit's auf dessen HW besser läuft!
dildo4u
2006-03-20, 13:01:22
11 fps sind schon etwas besser als Diashow, sehr Leidensfähige können bei 11 fps Spiele in dieser Art noch zocken. Und wer den Anspruch hat, mit einer 6800 GT ein neues Spiel, das als Grafikhammer gehandelt wird, auf vollen Details in 1600x1200 mit 4xAA flüssig spielen zu können, dem ist nicht zu helfen.
:
Naja aber es läuft ja wundersammer weise auf einer X800XT relativ flüssig also kann man schon erwarten das sich die 6800GT kanpp dahinter einordnet besonders da ja angeblich SM3.0 zum Speedgwinn eingesetzt wird.
Super Grobi
2006-03-20, 13:06:36
Ups,
ich doof! Hab mich verlesen und hab 7800gtx gelesen statt 7900, daher mein dummer Komentar.
SG
Es ist nicht zu glauben...
Da steht ein Rollenspiel mit genialer Grafik kurz vor den release und schon kommen die FPS kidies aus ihren Löchern gekrochen und haben nichts besseres zu tun als sich wegen ATi und nVidia die Köpfe einzuschlagen.
*kopfschüttel*
nomad
2006-03-20, 13:06:51
wenn ich auf meiner 7800gtx bei 1280x1024 konstant 30 fps hab dann bin ich zufrieden.mehr braucht man für ein rollenspiel eh nicht.
Spasstiger
2006-03-20, 13:09:59
Naja aber es läuft ja wundersammer weise auf einer X800XT relativ flüssig also kann man schon erwarten das sich die 6800GT kanpp dahinter einordnet besonders da ja angeblich SM3.0 zum Speedgwinn eingesetzt wird.
Mir ist der Vergleich Nvidia vs. ATI relativ egal, zumal ja einige Sachen wie Pflanzenschatten (und HDR) offenbar nicht mit SM2-Karten funktionieren. Ich wollte nur auf das sich anbahnende Gebashe hinweisen, das von SteWanKenobi provoziert wird.
Mr. Lolman
2006-03-20, 13:13:03
Naja aber es läuft ja wundersammer weise auf einer X800XT relativ flüssig also kann man schon erwarten das sich die 6800GT kanpp dahinter einordnet besonders da ja angeblich SM3.0 zum Speedgwinn eingesetzt wird.
Es gibt schon ein paar Spiele bei denen die 6800GT ähnlich abgeschlagen ist...
dildo4u
2006-03-20, 13:13:12
zumal ja einige Sachen wie Pflanzenschatten und HDR offenbar nicht mit SM2-Karten funktionieren.
Ich hoffe genau das gilt nur für die 9800pro und nicht für die X800 serie.Ansonsten wär der vergleich X800 und GF6 eh unsinn wenn die GF6 mher zu arbeiten hat.
Popeljoe
2006-03-20, 13:15:19
es ändert was wenn du 1920x1200 mit 2xAA 16xAF spielen kannst ( in der nativen tft auflösung ) oder eine auflösung niedriger - interpoliert, oder 1920 ohen AA/AF
Sorry, aber lies dir doch mein Posting nochmal durch und dann editiere deines!
Schön am Thema vorbei, aber egal: ich hab ja ne XT7800XTX von NVidiATI... :uup: *virtuellaufdieSchulterklopf*
P1
Popeljoe
2006-03-20, 13:22:07
Es ist nicht zu glauben...
Da steht ein Rollenspiel mit genialer Grafik kurz vor den release und schon kommen die FPS kidies aus ihren Löchern gekrochen und haben nichts besseres zu tun als sich wegen ATi und nVidia die Köpfe einzuschlagen.
*kopfschüttel*
Genau das nervt mich echt! :mad:
Wenn man es ganz hart sieht, könnte man diese Postings sogar als Spam abtun!
P1
trollkopf
2006-03-20, 13:39:34
vielleicht wurde NVidia ja durch sowas:
http://img425.imageshack.us/img425/6246/12ez.jpg
aufgeschreckt und schiebt nun einen Treiber raus :rolleyes:
woher kommen die Benchmarks ?
woher kommen die Benchmarks ?
Welche? Falls Du die BenchmarkERGEBNISSE hier meinst : frei erfunden, würde ich sagen.
Mephisto
2006-03-20, 13:58:00
Man kann sich jetzt schon mal online testweise einen Charakter erstellen:
Online Character Generator (http://www.globalgameport.com/oblivion-game/generator/occ.html)
Mephisto
2006-03-20, 13:59:30
Spezieller nVidia-Treiber für Oblivion am Mittwoch:
http://www.krawall.de/news.php?s=K40122dccb7696336424b2584901d66a4&news_id=19475
Spezieller nVidia-Treiber für Oblivion am Mittwoch:
http://www.krawall.de/news.php?s=K40122dccb7696336424b2584901d66a4&news_id=19475
gäääähn, das hat doch nun schon 3mal die Runde gemacht ...
1024x768 maximale details + AF kein AA aber FP HDR
http://img111.imageshack.us/img111/4642/klostertag7vr.jpg
http://img104.imageshack.us/img104/6407/klosternacht9bv.jpg
:D
MegaManX4@Work
2006-03-20, 14:28:11
1024x768 maximale details + AF kein AA aber FP HDR
http://img111.imageshack.us/img111/4642/klostertag7vr.jpg
http://img104.imageshack.us/img104/6407/klosternacht9bv.jpg
:D
Woher kommen die Screens?
von meinem Rechner ich habs :D
nee nee *g* leider noch nicht...die screens stammen von jemand ausm gamestarforum der es schon hat.
reunion
2006-03-20, 14:32:42
Und welche Hardware hat derjenige?
nen A64 (welchen k.a.) 1024MB ram und eine 7800GTX oder 6800GT
das hier
http://img80.imageshack.us/img80/2299/snap02051ok.jpg
stammt jedenfalls von einer 7800GTX @ max Details. Leider kein Fraps laufen.
Neomi
2006-03-20, 14:35:45
Und PC Entwickler haben noch nie auf die Mittelklasse Rücksicht genommen Call of Duty 2 oder Fear sind mit den Karten unspielbar mit alle Details warum sollte Bethesda da ein Halbes Jahr später weiter unten ansetzen?
Das kann nicht dein Ernst sein, natürlich wird Rücksicht genommen. Genau deshalb gibt es doch die Detailregler, damit auch Leute mit älterer Hardware noch spielen können. Volle Details auf Mittelklassehardware zu fordern ist einfach nur realitätsfremd.
reunion
2006-03-20, 14:35:46
Kannst du mal den Link posten?
Slipknot79
2006-03-20, 14:38:45
Dann hoff ich dass ne 6800GT eingebaut war^^
arnoldo
2006-03-20, 14:40:21
Das würde aber am letzten Screen nix ändern...
Super Grobi
2006-03-20, 14:43:14
Dann hoff ich dass ne 6800GT eingebaut war^^
:up: Hoffe ich auch.
SG
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.