Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread: ATI X1900 XT(X) Reviews und Diskussionen
Black-Scorpion
2006-01-24, 20:59:41
Der nächste der mit sinnlosen Zahlen um sich schmeißt.
Was davon übrig bleibt ist wichtig und nicht was auf irgend einem Zettel steht.
Das sind immernoch zwei paar Schuhe.
tombman
2006-01-24, 21:02:22
klar isses Milchmädchen, aber sie wird schneller als X1900 sein, könnts glauben oder nicht ;)
Well, it looks like the Radeon X1900 XTX has earned the title of the fastest single video card known to man. Oddly, though, two Radeon X1900 cards in a CrossFire config can't claim the title of the fastest two video cards known to man. The CrossFire card's marginally slower clock speeds, along with a tendency not to scale quite as well as SLI overall, leave that title with NVIDIA's GeForce 7800 GTX cards in SLI.........
:cool:
Demirug
2006-01-24, 21:02:31
Auch der G71 wird mit "langsamem" Speicher und CPUs zu kämpfen haben. Die brachialste GPU-Power muss halt auch auf dem Schirm ankommen ... Schneller sicher ... aber ganz sicher niemals so derbe, wie man es angesichts des Tunings erwarten könnte.
MfG,
Raff
Er wird IHMO noch mit etwas anderem zu kämpfen haben. Mit Bildern von "angeblichen" D3D10 Spielen.
Black-Scorpion
2006-01-24, 21:02:50
Leider hat ja bislang immernoch keiner mal das HQ AF von ATI genauer untersucht. Würde mich interessieren, wo der Speed herkommt. Füllrate ist ja geringer als bei der Konkurrenz.
Dann untersuch doch mal warum die 7800er trotz höherer Fillrate da so einbrechen.
Warum muß ausgerechnet bei ATI was faul sein?
Ähm stimmt das das die Bildqualität der 1900 besser ist als der 1800 ?
Gibts irgendwo dazu links ? Und ps was heist besser ? So wie damlas auf ner Radeon 9800 ???
thade
2006-01-24, 21:04:45
Wann nennt NV seine Chips endlich wieder NV**.
NV30, NV40 hört sich viel besser an als G70, G71. Ein weiteres Argument keine NV zu kaufen ;)
Ich will nen NV50 mit NV30 AF und G70 TRSSAA und 32Pipes, 750 Core/2000 RAM, blaues PCB.... Dann ja dann würde ich wieder NV kaufen :)
Am besten noch GeForce FX 8800 Ultra als Namen, dann könnt ich nicht widerstehen :tongue:
InsaneDruid
2006-01-24, 21:05:21
Dann untersuch doch mal warum die 7800er trotz höherer Fillrate da so einbrechen.
Warum muß ausgerechnet bei ATI was faul sein?
Weil ATI teh Evil ist. Früher waren sie Technologiebremsen, wegen geringerem Shadersupport und schlechterem AF. Jetzt ist HQ-AF nicht wichtig, und brachiale Shaderpower übertrieben und unnötig. :)
Sternenkind
2006-01-24, 21:06:03
leave that title with NVIDIA's GeForce 7800 GTX cards in SLI.........
Und? Wieso quotest du nur diese eine Seite? Weil sie zufällig mit deiner Meinung übereinstimmt?
Glauben tue ich es dennoch nicht. Darfst mich aber gern zu gegebener Zeit quoten. ;)
tombman
2006-01-24, 21:11:49
Und? Wieso quotest du nur diese eine Seite? Weil sie zufällig mit deiner Meinung übereinstimmt?
Glauben tue ich es dennoch nicht. Darfst mich aber gern zu gegebener Zeit quoten. ;)
CB hat das selbe rating, pic is oben...
(del676)
2006-01-24, 21:12:32
solange nvidia kein gscheides AF bietet können sie meinetwegen 2x so schnell sein die ne 512er gtx
bringt mir NULL wenn ich dadurch keine bessere BQ hab
Black-Scorpion
2006-01-24, 21:13:17
Weil ATI teh Evil ist. Früher waren sie Technologiebremsen, wegen geringerem Shadersupport und schlechterem AF. Jetzt ist HQ-AF nicht wichtig, und brachiale Shaderpower übertrieben und unnötig. :)
Ist schon komisch wie sich die Argumente den eigenen Karten anpassen. ;)
Das tombman seine Ansichten als Allgemeingültig hinstellt und das mit seltsamen Argumenten begründet ist ja nichts neues.
Sternenkind
2006-01-24, 21:13:24
oh wow 1 (in worten EIN) punkt mehr... na wenn das kein grund für SLI ist ;)
Lass es von mir aus 2 oder 3 oder 4 oder 5 sein...wollen wir dann aber auch wieder über die Bildqualitätsunterschiede sprechen? :)
tombman
2006-01-24, 21:14:52
solange nvidia kein gscheides AF bietet können sie meinetwegen 2x so schnell sein die ne 512er gtx
bringt mir NULL wenn ich dadurch keine bessere BQ hab
Naja, dann spiel doch mit GF3/4, haben super BQ ;D
Zeig mir mal Videos ingame wo man die Überlegenheit von wu-AF deutlich erkennen kann. Und zwar MEHR ALS 3 games ;)
(del676)
2006-01-24, 21:15:21
Ist schon komisch wie sich die Argumente den eigenen Karten anpassen. ;)
Das tombman seine Ansichten als Allgemeingültig hinstellt und das mit seltsamen Argumenten begründet ist ja nichts neues.
wayne, auf die IL mit dem ******
von ihm kommt nix ausser heiße luft
hat sich jedenfalls bei mir bewährt ;)
tombman
2006-01-24, 21:16:21
oh wow 1 (in worten EIN) punkt mehr... na wenn das kein grund für SLI ist ;)
Lass es von mir aus 2 oder 3 oder 4 oder 5 sein...wollen wir dann aber auch wieder über die Bildqualitätsunterschiede sprechen? :)
das isses ja, auch kein Grund dagegen,,
Leider hat ja bislang immernoch keiner mal das HQ AF von ATI genauer untersucht. Würde mich interessieren, wo der Speed herkommt. Füllrate ist ja geringer als bei der Konkurrenz.
z.b. weil es seiten gibt die bei ATI die optimierungen eingeschaltet lassen und bei NV deaktivieren?
Black-Scorpion
2006-01-24, 21:18:03
wayne, auf die IL mit dem ******
von ihm kommt nix ausser heiße luft
hat sich jedenfalls bei mir bewährt ;)
Manchmal ist es schon lustig, das will ich nicht verpassen. ;)
Wenn es zu schlimm ist, wird es überlesen.
'edit' schlechtes deutsch ausgebessert. ;)
PingpiN
2006-01-24, 21:18:59
z.b. weil es seiten gibt die bei ATI die optimierungen eingeschaltet lassen und bei NV deaktivieren?
Wenn es auf einer Karte bei Aktivierten Optimierungen nicht flimmert kann man die Optimierungen ruhig anlassen. :rolleyes:
fizzo
2006-01-24, 21:19:10
Er wird IHMO noch mit etwas anderem zu kämpfen haben. Mit Bildern von "angeblichen" D3D10 Spielen.
das macht sich nicht nur mich neugierig...kann man naeheres in erfahrung bringen?
tombman
2006-01-24, 21:19:45
wayne, auf die IL mit dem ******
von ihm kommt nix ausser heiße luft
hat sich jedenfalls bei mir bewährt ;)
Bist ja nur angepißt weilst viel Geld für SLI ausgegeben hast und es dich nicht befriedigen konnte :deal:
On-T: was die Karten einzeln machen geht mir am *** vorbei, nur Multi-gpu interessiert mich, denn solange eine X1900 nicht schneller als zwei 7800er ist zählt nur die crossfire performance und vorallem auch die crossfire Funktionalität...
Er wird IHMO noch mit etwas anderem zu kämpfen haben. Mit Bildern von "angeblichen" D3D10 Spielen.
Könntest du das präzisieren? :) Crysis? Falls ja, warum? *Wissen ausweiten will*
MfG,
Raff
LovesuckZ
2006-01-24, 21:21:20
Weil ATI teh Evil ist. Früher waren sie Technologiebremsen, wegen geringerem Shadersupport und schlechterem AF. Jetzt ist HQ-AF nicht wichtig, und brachiale Shaderpower übertrieben und unnötig. :)
Ja, früher war alles besser.
Ist doch schön zu sehen, dass Argumentation nicht logisch, sondern herstelleabhängig ist.
Gandharva
2006-01-24, 21:23:04
Könntest du das präzisieren? :) Crysis? Falls ja, warum? *Wissen ausweiten will*
MfG,
RaffHDR + AA in annehmbarer Geschwindigkeit? Der G71 wirds nicht können.
tombman
2006-01-24, 21:23:06
Shaderpower ist natürlich nicht unnötig, nur derzeit eher brachliegend...
ganz ehrlich; wenn crossfire auf dem Qualitätsniveau von SLI wäre, hätt ich mir schon 2x X1900 bestellt...aber so warte ich noch ab und tue das :ucoffee:
Wenn es auf einer Karte bei Aktivierten Optimierungen nicht flimmert kann man die Optimierungen ruhig anlassen. :rolleyes:
dann stell einfach bei NV auf high-performance und LOD auf 0,5 und es wird auch nix flimmern.
klar ist es dann unschärfer, aber das ist es ja bei ati immer (auch auf AI off)
tombman
2006-01-24, 21:26:29
dann stell einfach bei NV auf high-performance und LOD auf 0,5 und es wird auch nix flimmern.
klar ist es dann unschärfer, aber das ist es ja bei ati immer (auch auf AI off)
ATI hatte immer schon einen Hang zur Unschärfe...
(del676)
2006-01-24, 21:26:42
dann stell einfach bei NV auf high-performance und LOD auf 0,5 und es wird auch nix flimmern.
klar ist es dann unschärfer, aber das ist es ja bei ati immer (auch auf AI off)
falsch
atis AF ist sogar schärfer als nvidias MIT SSAA anteil :rolleyes: - siehe den AOE3 shot bei CB
Vielleicht ist der R580 mit dem bisher kaum genutzten Arithmetik-Dampf der erste wirklich zukunftssichere Chip. ;)Nö. D3D10.
atis AF ist sogar schärfer als nvidias MIT SSAA anteil Also das ist ja mal sicherlich grober Unfug wenn beide wirklich 16tap filtern (also auf dem Boden z.B.)
Auf schrägen Flächen hast du natürlich recht.
dilated
2006-01-24, 21:34:28
so ist es....hatte ja beides ;) (unscharf ist wenn überhaupt, eher nv)
Inwiefern?
Insofern,das alte Spiele meistens lowres Texturen haben,und da hilft SSAA (wenn auch nur ein bisschen-jede Hilfe gegen die Erzeuger von Augenkrebs ist willkommen),TSAA/AAA sind in diesem Fall nutzlos.SSAA verbessert das ganze Bild,die 2 von oben,dagegen nur die Alphatexturen.
Insofern,das alte Spiele meistens lowres Texturen haben,und da hilft SSAADa hilft AF genausogut wie SS. Und wenn sie erstmal in den Magnification-Bereich kommen hilft gar nichts mehr.
Demirug
2006-01-24, 21:37:42
Könntest du das präzisieren? :) Crysis? Falls ja, warum? *Wissen ausweiten will*
MfG,
Raff
Vom FlightSim X gibt es auch schon angebliche D3D10 Bilder und ich gehe davon aus das in den nächsten Wochen noch mehr folgen werden. Es will ja jeder dabei sein nachdem man jetzt ewig auf D3D9 gesessen hat.
Demirug
2006-01-24, 21:40:42
falsch
atis AF ist sogar schärfer als nvidias MIT SSAA anteil :rolleyes: - siehe den AOE3 shot bei CB
Wenn du es richtig scharf haben willst dann must du AA und AF ausmachen und mit Point Filter spielen. Die Qualität von Texturefilter Massnahmen kann man Aufgrund eines Standbildes schlecht bis überhaupt nicht beurteilen.
ATI hatte immer schon einen Hang zur Unschärfe...
Mit wieviel viertel? :biggrin:
Ati find ich brillianter, schon immer, aber ist vielleicht ansichtssache :|
Gandharva
2006-01-24, 21:41:34
Vom FlightSim X gibt es auch schon angebliche D3D10 Bilder und ich gehe davon aus das in den nächsten Wochen noch mehr folgen werden. Es will ja jeder dabei sein nachdem man jetzt ewig auf D3D9 gesessen hat.Täusche ich mich, oder war das grade keine Antwort auf die Frage von Raff?
[dzp]Viper
2006-01-24, 21:42:59
Täusche ich mich, oder war das grade keine Antwort auf die Frage von Raff?
lesen zwischen den Zeilen is hier angesagt ;)
Gandharva
2006-01-24, 21:45:54
Viper']lesen zwischen den Zeilen is hier angesagt ;)*Heul* Ich schnalls nicht!
Mr. Lolman
2006-01-24, 21:51:09
ATI hatte immer schon einen Hang zur Unschärfe...
Nö, zur überfilterung. NV bekommt negatives LOD einfach nicht gebacken. Blöderweise kenn ich min 3 Rennspiele wo dies verwendet wird. Und mit Clamp hast du plötzlich das Problem, dass Bereiche unscharf werden dies nicht sollten (weil die Designer das Spiel auf negatives LODBias ausgelegt haben)
D.H. ATi hat bei grenzwertigen Texturen auf jeden Fall die bessere BQ.
Und zu deiner SLI Sache. Die Effizienz von CF wird eher steigen als fallen (man bedenke dass ATis Technik noch ein bisschen jünger ist), und andererseits sind die CF AA Modi jetzt schon viel schneller als die SLI-AA Modi, bei gleichzeitig besserer BQ, wegen höherem EER beim SSAA. Außerdem hat Anantech und digit-life bei dem momentan anscheinend einzigen Spiel, welches hinsichtlich der Shaderleistung limitiert eine 100% höhere Leistung als bei der 512MB 7800GTX gemenssen => X1900XTX schneller als 512MB 7800GTX SLI.
So schlecht stehen die also garnicht da. Ich denke, du willst bloß nicht schon wieder so viel Kohle ausgeben... ;)
Mal ein Corssfiretest: http://www.xtremesystems.org/forums/showthread.php?t=87389
PS: Nach dem Übertakten geht die Karte ab wie eine Rakete :D
(del676)
2006-01-24, 21:53:20
Nö. D3D10.
Also das ist ja mal sicherlich grober Unfug wenn beide wirklich 16tap filtern (also auf dem Boden z.B.)
Auf schrägen Flächen hast du natürlich recht.
ich meine ja overall
kein game besteht mehr aus 90° flächen
ich meine ja overall
kein game besteht mehr aus 90° flächenDa geb ich dir natürlich recht. Aber dann bitte präziser ;)
eXodia
2006-01-24, 22:05:04
Also alles in allem schon ein schönes Stück silizium. Finde es aber nicht so toll das die Leistung der 512 nur um ca. 10-15% überboten wird.
http://www.3dcenter.org/artikel/2006/01-24.php
Falls sich die Gerüchte bewahrheiten und der G71 wirklich 32 Pipes & 700MHz hat, dann kann auch eine X1900XT nix mehr reissen.
Aber atm (vor allem durch das AF) die beste Graka.
:\ edit: von CF bin ich aber schon enttäuscht, nur das Niveau von 2xGTX512 ist mit einem solchen Chip schon etwas enttäuschend.
Greetz
*Heul* Ich schnalls nicht!
Ist mir auch irgendwie zu hoch ... ;(
Wie stehen eigentlich die Chancen, dass nV den G71 HDR+MSAA-ready macht? Lässt sich das nachträglich "einfügen"?
MfG,
Raff
Mr. Lolman
2006-01-24, 22:09:43
Also alles in allem schon ein schönes Stück silizium. Finde es aber nicht so toll das die Leistung der 512 nur um ca. 10-15% überboten wird.
http://www.3dcenter.org/artikel/2006/01-24.php
Falls sich die Gerüchte bewahrheiten und der G71 wirklich 32 Pipes & 700MHz hat, dann kann auch eine X1900XT nix mehr reissen.
Aber atm (vor allem durch das AF) die beste Graka.
:\ edit: von CF bin ich aber schon enttäuscht, nur das Niveau von 2xGTX512 ist mit einem solchen Chip schon etwas enttäuschend.
Greetz
Abwarten. Am Anfang haben auch alle die X1800XT unterhalb von der 256MB 7800GTX gesehen. Die 3-fache Shaderleistung muss erstmal ausgenutzt werden. Selbst bei Fear gelingt das nichtmal ansatzweise (und trotzdem ist man tw. schon so schnell wie ein 512MB GTX SLI System)
Mr. Lolman
2006-01-24, 22:10:54
Ist mir auch irgendwie zu hoch ... ;(
Wie stehen eigentlich die Chancen, dass nV den G71 HDR+MSAA-ready macht? Lässt sich das nachträglich "einfügen"?
MfG,
Raff
Es wird wohl bald Screenshots geben, die zeigen, dass die beste Qualität wiedermal nur mit der neuesten NV Karte erreicht werden kann ;)
VoodooJack
2006-01-24, 22:13:39
Die ersten offiziellen Treiber für X1900 sind die 6.2er. Kommen Anfang Februar raus und das darf man von ihnen erwarten:
http://www.rage3d.com/board/showpost.php?p=1334135549&postcount=34
Botcruscher
2006-01-24, 22:14:01
Der Idle-Stromverbrauch (fast) aller derzeitigen Karten ist einfach unter aller Sau. Um die 110W fürs nix machen (n) .
Es wird Zeit das auch die GraKa-Hersteller mal Stromsparmechanismen einbauen.
MartinRiggs
2006-01-24, 22:16:55
Was hier viele vergessen, die 512er GTX kann man doch gar nicht mehr kaufen, jedenfalls nicht richtig.
Ich sehe bei Geizhals grade mal 1 Laden der sie noch haben soll, die x1900 währendessen kann man kaufen.
Und außerdem brauch die Leistung doch bald kein Mensch mehr, selbst so "kranke" Leute wie Tombman nicht(ist nicht böse gemeint :wink: )
Ich bin eigentlich schon recht Hardware-geil und zocke die aktuellen Sachen in TFT-Auflösung mit ner x800xl die ja nu nix dolles mehr ist und es reicht dicke.
Was für Monitore soll man sich den bald noch anschaffen um die Leistung auszunutzen?????????
Mr. Lolman
2006-01-24, 22:18:09
Der Idle-Stromverbrauch (fast) aller derzeitigen Karten ist einfach unter aller Sau. Um die 110W fürs nix machen (n) .
Es wird Zeit das auch die GraKa-Hersteller mal Stromsparmechanismen einbauen.
Der bezieht sich aufs gesamte System: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/28/#abschnitt_stromverbrauch
Außerdem konnte der idle Stromverbrauch der X1900XTX vgl zur X1800XT um anscheinend mehr als 10% gesenkt werden und nochdazu rennt die X1900XT nur mit 1.2V und nicht mit 1.45V wie die XTX, was das nochmal deutlich drücken sollte...
Äh, warum drückt man der XTX für lächerliche 25 MHz ganze 0,25 mehr Volt rein? :|
MfG,
Raff
reunion
2006-01-24, 22:20:52
Das darf ich leider nicht ;)
Aber rein rechnerisch ist doch schon alles klar:
7800 GTX 512 hat 550core mit 6 quads. = 100%
G71 hat 700 core und 8 quads (so sagt man)
700/550*8/6 = 1.7 -> 170% ;)
Also 70% mehr power als G70 ;) Selbst wenn keine 700core erreicht werden, 650mhz werden es GANZ SICHER sein, und dann sind es immer noch 157%.
Und da eine X1900 SICHER nicht 70% schneller IM SCHNITT als ein 7800 512mb ist, KANN eine G71 nur schneller sein :cool:
Ersten kommt mit Sicherheit noch eine schneller X1900 sobald G71 vorgestellt wird, und zeitens kannst du die 70% ohne Bandbreitensteigerung vergessen.
Kladderadatsch
2006-01-24, 22:20:54
planet3dnow (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1138113312):
Die größte Neuerung dürften wohl die 48 Pixel Shader sein, im Gegensatz zu den 16 beim R520.
:confused:
weil 3 alus pro pipeline?
ich habe schon öfters von den angeblichen 48 pixelpipelines beim r580 gelesen- all die müssten der 7800gtx dann doch auch 48 zuschreiben:confused:
oder ist das einfach (marketing) blödsinn?
Black-Scorpion
2006-01-24, 22:24:00
Vielleicht gibt man der XT einfach 0,25V weniger um sie nicht so gut übertakten zu können.
Da hilft AF genausogut wie SS. Und wenn sie erstmal in den Magnification-Bereich kommen hilft gar nichts mehr.
Liest du ueberhaupt im welchen Kontext der Post steht?
planet3dnow (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1138113312):
Die größte Neuerung dürften wohl die 48 Pixel Shader sein, im Gegensatz zu den 16 beim R520.
:confused:
weil 3 alus pro pipeline?
ich habe schon öfters von den angeblichen 48 pixelpipelines beim r580 gelesen- all die müssten der 7800gtx dann doch auch 48 zuschreiben:confused:
oder ist das einfach (marketing) blödsinn?Ja, von 48 Pixel-Pipelines zu reden ist Marketingblödsinn. Es sind 16 Pipelines mit je 3 ALUs pro Pipe. Allerdings sollten wir uns sowieso so langsam vom Begriff "Pipeline" abwenden und stattdessen einfach die Funktionseinheiten beim Namen nennen. Also 16 ROPs, 16 TMUs und 48 ALUs bei R580.
Ronny145
2006-01-24, 22:26:06
6.2 beta.
Nur die wenigsten Seiten haben damit gebencht. Die meisten mit dem Catalyst 5.13 WHQL, selbst driverheaven.
reunion
2006-01-24, 22:26:12
Leider hat ja bislang immernoch keiner mal das HQ AF von ATI genauer untersucht. Würde mich interessieren, wo der Speed herkommt. Füllrate ist ja geringer als bei der Konkurrenz.
ATi verliert durch die mehr oder weniger stark entkoppelten TMUs schon seit jeher weniger Leistung durchs AF. Das HQ-AF kostet aber verhältnismäßig viel, bereits 4:1 HQ-AF ist in den meisten Fällen langsamer als 16:1 "standard"-AF.
reunion
2006-01-24, 22:28:23
Der bezieht sich aufs gesamte System: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/28/#abschnitt_stromverbrauch
Außerdem konnte der idle Stromverbrauch der X1900XTX vgl zur X1800XT um anscheinend mehr als 10% gesenkt werden[...]
Das liegt daran, dass der 2D Takt von 600Mhz auf 500Mhz gesenkt wurde.
und nochdazu rennt die X1900XT nur mit 1.2V und nicht mit 1.45V wie die XTX, was das nochmal deutlich drücken sollte...
Woher kommen die 1.45V für die "XTX"?
Mr. Lolman
2006-01-24, 22:28:25
Äh, warum drückt man der XTX für lächerliche 25 MHz ganze 0,25 mehr Volt rein? :|
MfG,
Raff
Frag mich nicht. Möglicherweise lassen sie die X1900XTX am Spannungslimit des PCBs laufen, haben erst später gemerkt, dass der Chip mit 1.2V fast die gleiche Taktrate schafft und noch die XT nachgeschoben - sofern die Spannungsangaben von digit-life überhaupt stimmen...
DrumDub
2006-01-24, 22:31:27
Außerdem hat Anantech und digit-life bei dem momentan anscheinend einzigen Spiel, welches hinsichtlich der Shaderleistung limitiert eine 100% höhere Leistung als bei der 512MB 7800GTX gemenssen => X1900XTX schneller als 512MB 7800GTX SLI. krass:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
fallls fear sich bezüglich zukünftiger spiele im einsatz von pixelshadern als repräsentativ zeigen sollte.
Also bis jetzt sind die ziemlich gleich von der Leistung her, zumindest in 3dmark06. Ca 2200 GAMESCORE, oced ca 2600 gamescore. (gamescore ist cpu bereinigt = (sm2.0 + sm3.0)/2)
Habt ihr benchmarks wo die X1900XT eine 512er deutlich schlägt? Immer her damit ;)
Kommt es mir nur so vor, oder ist die X1900 Serie viel mehr Konkurrenz zur 7800 512MB denn zur G71?
FEAR.
Armaq
2006-01-24, 22:32:49
Warum schlagt ihr euch immer wieder um die Bildqualität?
Ich kenne Spiele auf meinem Monitor mit ner 6800GT und mit einer x1800 (sein PC, hab kein PCIx). Hierzu sei gesagt, dass ich natürlich HQ AF von Ati getestet habe.
Für mich liegen keine Welten dazwischen. Ich spiel auf HQ mit 2xAA 4xAF. Alles was mir in die Finger kommt. Ich geh auch höher, aber da ich viele Onlinegames spiele sind mir ein paar Frames mehr wichtiger als die Ultimative BQ.
Bei Fable hab ich allerdings alles auf Anschlag gestellt (4xAA 16xAF).
Wenn Herr Ulukay Nvidia jetzt kacke findet, bitte. Wenn Herr Tombman Ati nicht gut genug findet, um nochmal Cash zu investieren, bitte.
Nur warum in aller Welt will man sich gegenseitig die eigene Meinung aufschwatzen? Wie am Satz schon zu erkennen - es geht einfach nicht.
Interessanter fände ich Ausführlicheres von Demirug. Warum verschluckt sich eine X1900 an Flightsim X? Was kommt auf uns genau zu? Wer dreht wem am Zeiger?
Sowas bringt uns alle weiter. Deshalb hängt man in sonem Nerd-Forum. :)
Mr. Lolman
2006-01-24, 22:35:59
krass:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
fallls fear sich bezüglich zukünftiger spiele im einsatz von pixelshadern als repräsentativ zeigen sollte.
Die Zahl rechts unten ist interessant ;): http://www.ixbt.com/video2/images/r580/f-pr.png
Woher kommen die 1.45V für die "XTX"?
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3909446#post3909446
Mancko
2006-01-24, 22:37:10
Er hat gemeint, daß für 2-3 Monate ATI die Krone hat. Nvidia hatte sie letztes Jahr. Was verstehts du daran nicht?
Achso das hatte ich falsch verstanden. Trozdem wenn Nvidia so nachlegt wie man es erwarten sollte, dann hat ATI allenfalls bis Mitte März die Krone
Warum soll die Krone weg sein?
ATI bietet den effizienteren Chip an.
Siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3910064&postcount=432)
Der Ringbus-Controller scheint ja doch etwas zu bringen, wenn man gerade unter hohen Auflösungen und Anti-Aliasing deutlich vorn ist.
Die effektive Shaderleistung liegt bei den ATI-Karten auch höher.
Wie gesagt ich sehe mehr Anzeichen dafür dass Nvidia ATI überholen wird als dagegen. Dazu muss ich mich auch gar nicht lange mit den Chip-Internas beschäftigen. Nvidia hat ATI mit dem G70 voll im Griff gehabt und das trotz eigentlich keinem großen Neudesign sondern simplem aufgebohrten NV40 und vor allem trotz größerer Fertigung (0.11 vs 0.09).
ATI hat auf 0.09 schon alle Hosen runter gelassen. Die Leistungsaufnahme, Kühlung und auch GPU-Wärme spricht da bereits Bände.
Nvidia hat jetzt bei einem eigentlich als moderat geltenden Refresh noch einen Shrink vor sich. Der Prozess ist viel reifer als zu der Zeit, als ATI auf diesen setzte. Das thermische Verhalten des G70 ist ebenfalls besser.
Da sehe ich deutlich mehr Luft für Nvidia etwas zu bewegen.
Damit meine ich gar nicht HDR + AA und ähnliches sondern einfach mal die Grundleistung. Und die wird in den Reviews und bei der MAsse der Käufer den Ausschlag geben. HDR + AA ist bei der derzeit gebotenen SInglecard Performance noch nicht so der Bringer.
Ich sehe wie gesagt mehr Potential dass Nvidia was bewegen kann. ATI hatte da eigentlich wenig Spielraum, da das R5xx Design von Anfang an nicht besonders glücklich war und ist. Das selbe Problem nur in noch etwas verschärfter Form hatte Nvidia mit dem NV30 und NV35. Letzterer hatte auch eine deutlich bessere Leistung in Speizialbereichen als der VOrgänger. Es hat gegen den Rohpower der R3xx Reihe trozdem nicht gereicht.
Ich sehe ATI da eigentlich im selben Boot wie Nvidia damals - nur halt nicht so krass.
Aber im Grunde genommen würde ich davon ausgehen, dass der G70 Refresh den R580 für die zur Zeit vorhandenen und bis zur neuen Generation G80/R600 erscheinenden Spiele besser gerüstet ist. Was in 1,5 Jahren ist ist sowieso wurscht, da dann die jetztigen Karten kaum noch nen Cent wert sind.
Demirug
2006-01-24, 22:38:56
Interessanter fände ich Ausführlicheres von Demirug. Warum verschluckt sich eine X1900 an Flightsim X? Was kommt auf uns genau zu? Wer dreht wem am Zeiger?
Wo habe ich den gesagt das sich die X1900 am FlightSim X verschluckt? Ich sprach doch nur von angeblichen D3D10 Bilder die im Umlauf sind.
Armaq
2006-01-24, 22:43:03
Stimmt.
Ich hab das für mich so interpretiert, dass sich Ati und Nv mit den jetzt anstehenden Karten lediglich nochmal die Kasse aufbessern, weil man mit d3d10 dann nochmal andere Wege geht.
Damit wären für mich alle Neukäufer erschossen, zumindest was den finanziellen Einsatz angeht. (Beschissen trifft es auch ganz gut)
(del676)
2006-01-24, 22:43:39
krass:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
fallls fear sich bezüglich zukünftiger spiele im einsatz von pixelshadern als repräsentativ zeigen sollte.
joa, das kommt raus wenn man nen overkill an shaderpower einbaut :)
deshalb ist die ati imho auch wesentlich besser für neuere games geeignet
ich bin schon auf benches von oblivion gespannt (wird doch sicher das eine oder andere shaderchen haben)
Wie stehen eigentlich die Chancen, dass nV den G71 HDR+MSAA-ready macht? Lässt sich das nachträglich "einfügen"?Eigentlich schon, denn FP16-Rendertargets können ja nicht Front- und Backbuffer sein, d.h. mit Filter-On-Scanout gibts da auch keine Probleme - außer ich übersehe irgendwas.
ich bin schon auf benches von oblivion gespannt (wird doch sicher das eine oder andere shaderchen haben)Oblivion sieht eigentlich eher nach viel Preprocessing an, aber nur an Screenshots lässt sich das nicht klären ;)
Fear ist auch irgendwie überzogen Shaderlastig für die Optik.
Aquaschaf
2006-01-24, 22:48:30
Es wird wohl bald Screenshots geben, die zeigen, dass die beste Qualität wiedermal nur mit der neuesten NV Karte erreicht werden kann ;)
Ich verstehe es so, dass Karten mit G71 ein Problem damit haben werden als DX9-Ultra-Highend-Hardware mit entsprechendem Preis zu einem Zeitpunkt zu erscheinen an dem schon der Hype um D3D10 angelaufen ist. Möglicherweise ist die Nachfrage nach 650€ teuren DX9-Karten dann nicht mehr so groß.
Frank1974
2006-01-24, 22:48:43
http://www.fsplanet.com/fsplanet_com_fsx.htm
Falls die Bilder Ingame sein sollten wow :eek:
/edit es geht um die angeblichen D3D10 Bilder
/edit2
ist aber leider ohne AA
Gruss
Frank
Armaq
2006-01-24, 22:51:20
Die Bilder sind wahnsinn.
Mr. Lolman
2006-01-24, 22:53:12
Fear ist auch irgendwie überzogen Shaderlastig für die Optik.
Absolut. Der 3dmark06 auch. Bei Farcry und Hl² hingegen stehts imo in einem guten Verhältnis.
Die Bilder sind wahnsinn.
Wo? Ich sehe da nur SM2-Grafikniveau mit enormer Sichtweite. Nichts, was mit schneller aktueller Hardware nicht auch möglich sein sollte ...
MfG,
Raff
Oblivion sieht eigentlich eher nach viel Preprocessing an, aber nur an Screenshots lässt sich das nicht klären ;)
Würde ich auch so sehen.
Imo wird das Preprocessing in Zukunft noch wesentlich zunehmen. Da wird wohl noch einiges an notwendiger Texturleistung auf uns zukommen....
Die Texturespace-Heightmap-Raycasting-Shader (geiles Wort :D) sind da wohl nur ein Vorgeschmack.
tombman
2006-01-24, 22:53:56
joa, das kommt raus wenn man nen overkill an shaderpower einbaut :)
deshalb ist die ati imho auch wesentlich besser für neuere games geeignet
ich bin schon auf benches von oblivion gespannt (wird doch sicher das eine oder andere shaderchen haben)
Tjo, so ein Pech, denn die Werte sind FALSCH.
Hab gerade mit zwei normalen 256er GTX 35fps Durchschnitt geschafft auf 485/1380, ALSO DEUTLICH SCHWÄCHER ALS die beiden 512er von Anandtech.
Blaire wird gleich die RICHTIGEN 512er Werte posten ;)
FEAR benchmarken ist eine Kunst, die ned jeder kann ;)
Blaire
2006-01-24, 22:58:22
krass:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
fallls fear sich bezüglich zukünftiger spiele im einsatz von pixelshadern als repräsentativ zeigen sollte.
Die Werte der GTX512MB SLI sind definitiv falsch bzw. viel zu niedrig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3838048&postcount=140
Jetzt muss man dennoch ~5 Prozent klauen, da Blaires GTXen default oced sind, dann passt's. =)
MfG,
Raff
mapel110
2006-01-24, 23:02:23
Du hast 1920x1200, Anand 1920x1400
oder hast du dich verschrieben?
Obendrein laufen deine GTX und deine CPU nicht undedingt auf Std-Takt ;)
Anand hat nur einen FX57 gehabt.
/edit
der FX57 hat ja 2800 Mhz, okay...
Frank1974
2006-01-24, 23:03:34
Wo? Ich sehe da nur SM2-Grafikniveau mit enormer Sichtweite. Nichts, was mit schneller aktueller Hardware nicht auch möglich sein sollte ...
MfG,
Raff
Hast du den FAQ unten auch gelesen,sie wollen das Spiel für eine Große Käuferschaft bringen,also auch für ältere Grafikkarten,deshalb glaube ich das die Bilder nur andeuten sollen wie gut die Grafik werden soll,es ist ja auch keine Kantenglättung an,und es sind noch sehr frühe Bilder.
MFG
Frank
Die Werte der GTX512MB SLI sind definitiv falsch bzw. viel zu niedrig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3838048&postcount=140
1920*1400 vs 1920*1200 ?
edit:
wie immer zu spät ;D
(del676)
2006-01-24, 23:06:54
Die Werte der GTX512MB SLI sind definitiv falsch bzw. viel zu niedrig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3838048&postcount=140
sli profil gepfrimmel zählt aber nicht :)
ebenso schau dir die werte der single karten an
X1900XT um 65% schneller als eine 512er GTX
Die Werte der GTX512MB SLI sind definitiv falsch bzw. viel zu niedrig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3838048&postcount=140
1920x1400 und nicht 1200.
Btw, deine Karte ist noch dazu übertaktet.
Armaq
2006-01-24, 23:08:10
Grafik muss doch nicht immer 600 Effekte pro Sekunde bieten. Die Shots finde ich echt gut gelungen. Vor allem Bild 1 und 2 sind ziemlich gut.
Edit: Der Containerhafen sieht auch recht gelungen aus, fehlt nur noch ordentliches Gewusel. :)
tombman
2006-01-24, 23:09:33
Und es geht munter weiter mit falschen FEAR Werten, auch THG irrt.
Ist auch falsch. Ich habe bereits mit zwei schlappen 256mb GTX @ 485/1380 70fps avg auf 1024 4xAA/8xAF + SS, also selbe settings. (cpu @ 2.8ghz, wie THG)
doom1
2006-01-24, 23:09:40
Tjo, so ein Pech, denn die Werte sind FALSCH.
Hab gerade mit zwei normalen 256er GTX 35fps Durchschnitt geschafft auf 485/1380, ALSO DEUTLICH SCHWÄCHER ALS die beiden 512er von Anandtech.
Blaire wird gleich die RICHTIGEN 512er Werte posten ;)
FEAR benchmarken ist eine Kunst, die ned jeder kann ;)
46fps-57@3.1-501/1380
Blaire
2006-01-24, 23:12:09
1920x1400 und nicht 1200.
Btw, deine Karte ist noch dazu übertaktet.
Die Karten sind nicht übertaktet, das ist Standardtakt der XFX Karten.
Ich hatte zusätzlich noch 16xAF sowie HQ im Treiber enabled! Die 200 mehr Zeilen machen kaum einen Unterschied.
Aber "übertaktet" im Sinne von nVidias Vorgaben und verglichen mit den Testkarten. Teste doch bitte mal exakt so wie da angegeben, mit 550/800. =)
MfG,
Raff
Mumins
2006-01-24, 23:15:52
Und es geht munter weiter mit falschen FEAR Werten, auch THG irrt.
Ist auch falsch. Ich habe bereits mit zwei schlappen 256mb GTX @ 485/1380 70fps avg auf 1024 4xAA/8xAF + SS, also selbe settings. (cpu @ 2.8ghz, wie THG)
Aber, dass die X1900 Werte ebenso zu niedrig sein könnten, das fällt dir nicht ein!
doom1
2006-01-24, 23:16:22
1920x1400 und nicht 1200.
Btw, deine Karte ist noch dazu übertaktet.
Klar doch mein Kram auch na und?
Ist doch uralte Schied Hardware muß mich doch wehren :tongue:
(del676)
2006-01-24, 23:16:44
Aber "übertaktet" im Sinne von nVidias Vorgaben und verglichen mit den Testkarten. Teste doch bitte mal exakt so wie da angegeben, mit 550/800. =)
MfG,
Raff
ja und OHNE dein sli profil gepfrimmel, also noch besser eine karte alleine :)
Frank1974
2006-01-24, 23:17:10
Ich hatte zusätzlich noch 16xAF sowie HQ im Treiber enabled! Die 200 mehr Zeilen machen kaum einen Unterschied.
Deine Werte zählen aber nicht,ist nicht böse gemeint :smile: ,aber es gibt glaube ich nur sehr wenige die Sli Profile so Einstellen können wie du:wink:
Gruss
Frank
eXodia
2006-01-24, 23:18:26
Irgendwie kommt mir das so vor als ob der R580 als Konkurrent zur 7800 512 gesehen wird, was er aber nicht ist :wink: - er ist schneller, aber imo keine Welten und das er gegen einen G71 wohl kein Land sehen wird ist, imho vorhersehbar. Und das die SLI-Benches falsch sind haben Tombi und Blaire ja schon bewiesen.
Mr. Lolman
2006-01-24, 23:19:03
Jaja alle irren:
http://www.forum-3dcenter.de/vbulletin/attachment.php?attachmentid=26266&stc=1 http://pics.krawall.de/4/x1900-fear_2.gif http://www.tecchannel.de/imgserver/bdb/347700/347739/original.jpg http://www.zdnet.de/i/et/client/Grafikkarten/ATIX1900XTX/image012.png http://www.driverheaven.net/reviews/X1900XTXCF/x1900/images/graphs/fear_2.jpg http://www.firingsquad.com/hardware/ati_radeon_x1900_xt_preview/images/fear1600.gif http://www.hothardware.com/articleimages/Item777/fe2.png http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
doom1
2006-01-24, 23:19:47
Aber, dass die X1900 Werte ebenso zu niedrig sein könnten, das fällt dir nicht ein!
Echt? Ich dachte die wollten die Dinger verkaufen :confused:
eXodia
2006-01-24, 23:20:20
Deine Werte zählen aber nicht,ist nicht böse gemeint :smile: ,aber es gibt glaube ich nur sehr wenige die Sli Profile so Einstellen können wie du:wink:
Gruss
Frank
Sry., aber genau deswegen zählen sie, weil nur sie die wahre Leistung zeigen. Alles andere verfälscht nur das Endresultat.
Greetz
tombman
2006-01-24, 23:23:49
jaja, alle irren
Schon peinlich, die Effzienz von Crossfire ;D
Dein Bild ;)
http://www.hothardware.com/articleimages/Item777/fe2.png
doom1
2006-01-24, 23:24:07
Jaja alle irren:
http://images.tomshardware.com/2006/01/24/ati_radeon_x1900_heats_up_with_48_pixel_pipelines/image017.png http://pics.krawall.de/4/x1900-fear_2.gif http://www.tecchannel.de/imgserver/bdb/347700/347739/original.jpg http://www.zdnet.de/i/et/client/Grafikkarten/ATIX1900XTX/image012.png http://www.driverheaven.net/reviews/X1900XTXCF/x1900/images/graphs/fear_2.jpg http://www.firingsquad.com/hardware/ati_radeon_x1900_xt_preview/images/fear1600.gif http://www.hothardware.com/articleimages/Item777/fe2.png
Streitet doch keiner ab das die Karte das schnellste zur Zeit ist.
reunion
2006-01-24, 23:24:24
Ich hatte zusätzlich noch 16xAF sowie HQ im Treiber enabled! Die 200 mehr Zeilen machen kaum einen Unterschied.
AF und HQ kosten bei FEAR null.
Und die 200 Zeilen machen sehrwohl einen Unterschied.
Blaire
2006-01-24, 23:24:43
Deine Werte zählen aber nicht,ist nicht böse gemeint :smile: ,aber es gibt glaube ich nur sehr wenige die Sli Profile so Einstellen können wie du:wink:
Gruss
Frank
Ach das kenn jeder einstellen, so schwierig ist das garnicht wer Optimierungen im Treiber an und ausschalten kann ,der ist auch in der Lage die richtigen SLI Bits zu setzen. Aber natürlich ist das Nvidia´s Bier wenn ihre SLI Profile nicht immer optimal sind, aber ist deswegen gleich die Karte schlecht? Sollte man nicht versuchen immer eine Lösung zu finden?
Sternenkind
2006-01-24, 23:24:58
lustig ist auch wie die 512er GTXs jetzt für SLI herhalten sollen/müssen, wo gibt es die überhaupt zu kaufen? lol!
Edit: Lieber Tombman, wie schon im Thread erwähnt wurde, ist bei CF sicherlich noch mehr Luft nach oben als bei SLI. Ich denke, dass ist sogar für dich nachvollziehbar... ;)
PS: fuck.. häng ich mich schon in diesem Rotz SLI/CF rein.. :D
Mr. Lolman
2006-01-24, 23:26:23
Schon peinlich, die Effzienz von Crossfire ;D
Dein Bild ;)
[ img]http://www.hothardware.com/articleimages/Item777/fe2.png[/img]
Dann knall halt 8xAA rein, und schon dreht sichs wieder um :rolleyes:
MartinRiggs
2006-01-24, 23:27:35
lustig ist auch wie die 512er GTXs jetzt für SLI herhalten sollen/müssen, wo gibt es die überhaupt zu kaufen? lol!
Das hatte ich eben auch schonmal geschrieben.
Als die ATI´s nicht lieferbar waren haben alle geschrien, das jetzt die GTX 512 überhaupt nicht mehr zu bekommen ist das ist total Banane :biggrin:
Frank1974
2006-01-24, 23:27:39
Sry., aber genau deswegen zählen sie, weil nur sie die wahre Leistung zeigen. Alles andere verfälscht nur das Endresultat.
Greetz
Die 1900XTX ist aber eine einzel Karte und man muss sie mit einer 7800GTX 512 vergleichen und diese wird deutlich geschlagen in Fear,SLI ist ein anderes Thema,ausserdem war das ein Kompliment an Blaire,die Meisten die sich ein SLI System holen,bekommen das mit den Profile ganz sicher nicht so hin wie er.
Ich möchte nicht wissen wie vielen SLI usern er hier im Forum schon geholfen hat mit seine Bits :biggrin:
MFG
Frank
Jaja alle irren:Nein, aber sie alle haben schon mehrfach bewiesen, dass sie mit SLI nicht wirklich umgehen können. Wer nur die Standardprofile nutzt, lässt viel Potenzial ungenutzt.
Logan
2006-01-24, 23:30:11
:eek: Eine einzelne karte schlägt ein sli gespann ? Zum glück habe ich ne zweite gtx nicht gekauft :D
tombman
2006-01-24, 23:32:10
:eek: Eine einzelne karte schlägt ein sli gespann ? Zum glück habe ich ne zweite gtx nicht gekauft :D
Wir haben bereits bewiesen, daß das nicht der Fall ist :rolleyes:
(del676)
2006-01-24, 23:33:01
krass:
http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png
fallls fear sich bezüglich zukünftiger spiele im einsatz von pixelshadern als repräsentativ zeigen sollte.
so extra nachgemessen
4xAA 16xAF ingame eingestellt, alles max mit 2 256mb gtxen (470/1320) im sli ganze 28 fps
ich weiss ned wo ihr euch die fps rauslutscht :)
tombman
2006-01-24, 23:33:27
Nein, aber sie alle haben schon mehrfach bewiesen, dass sie mit SLI nicht wirklich umgehen können. Wer nur die Standardprofile nutzt, lässt viel Potenzial ungenutzt.
Amen, nur daß man bei ATi bei CF gar nix verändern KANN, keine Profile, keine Bits, NADDA. Wenn es nicht rennt mit CF kannst einen Monat auf den nächsten Treiber warten, das wars .. lol.
Frank1974
2006-01-24, 23:34:54
Ach das kenn jeder einstellen, so schwierig ist das garnicht wer Optimierungen im Treiber an und ausschalten kann ,der ist auch in der Lage die richtigen SLI Bits zu setzen. Aber natürlich ist das Nvidia´s Bier wenn ihre SLI Profile nicht immer optimal sind, aber ist deswegen gleich die Karte schlecht? Sollte man nicht versuchen immer eine Lösung zu finden?
Nein die Karte ist natürlich nicht schlecht wenn man sie so einstellen kann wie du,aber man sieht ja an den ganzen Reviews das die Tester da keinen wert legen,und wie du schon sagtest ist es auch Nvidia selbst in Schuld wenn sie keine Optimalen Profile liefern,also muss man es so machen wie du und alles aus SLI rausholen was geht,das finde ich auch klasse das wollte ich auch nur damit sagen.
MFG
Frank
doom1
2006-01-24, 23:37:49
so extra nachgemessen
4xAA 16xAF ingame eingestellt, alles max mit 2 256mb gtxen (470/1320) im sli ganze 28 fps
ich weiss ned wo ihr euch die fps rauslutscht :)
Tjo, so ein Pech, denn die Werte sind FALSCH.
Hab gerade mit zwei normalen 256er GTX 35fps Durchschnitt geschafft auf 485/1380, ALSO DEUTLICH SCHWÄCHER ALS die beiden 512er von Anandtech.
Blaire wird gleich die RICHTIGEN 512er Werte posten
FEAR benchmarken ist eine Kunst, die ned jeder kann
auf den letzten Satz achten !!!!!!!!!!!!!!!
(del676)
2006-01-24, 23:39:21
Tjo, so ein Pech, denn die Werte sind FALSCH.
Hab gerade mit zwei normalen 256er GTX 35fps Durchschnitt geschafft auf 485/1380, ALSO DEUTLICH SCHWÄCHER ALS die beiden 512er von Anandtech.
Blaire wird gleich die RICHTIGEN 512er Werte posten
FEAR benchmarken ist eine Kunst, die ned jeder kann
auf den letzten Satz achten !!!!!!!!!!!!!!!
den mit den klemmenden ! ?
weisst du, ich will NICHT vorher das game starten, dann per alt+tab raus, im nhancer ne grindige value reinforcen, und per alt+tab zurück damit ich nen halb-funzenden afr modus bei fear habe
und das bei jedem mal fear starten X-D
9800ProZwerg
2006-01-24, 23:41:35
Wer hat schon bestellt :naughty:
http://www.geizhals.at/deutschland/a184820.html
Immerhin kein paper launch! Schön ATI :smile:
Amen, nur daß man bei ATi bei CF gar nix verändern KANN, keine Profile, keine Bits, NADDA. Wenn es nicht rennt mit CF kannst einen Monat auf den nächsten Treiber warten, das wars .. lol.
Wäre auch das erste mal das etwas bei mir nicht rennt.
Ist man so etwas von nV gewohnt?
tombman
2006-01-24, 23:43:39
Und hier die überlegene shaderpower
shadermark 2.1, Werte von Hothardware, Durchschnitt ausgerechnet.
7800 GTX 512: 437
X1900XTX: 484
X1900XTX krasse 10.7% schneller --> WOW, ich flipp aus ;)
Und DAS soll die Konkurrenz zur G71 sein?
OBrian
2006-01-24, 23:44:01
X1800XT zum Kampfpreis:
http://www.geizhals.at/eu/?phist=168735
Da sehe ich eine große Lücke entstehen zwischen 360€ und 550€. Entweder wird die X1900XT bald billiger, Richtung 450€, oder es kommt eine X1900 XL für den Preis; die müßte aber auch relativ viel Takt haben, sonst wäre sie zu oft langsamer als die X1800XT.
dildo4u
2006-01-24, 23:46:23
X1800XT zum Kampfpreis:
http://www.geizhals.at/eu/?phist=168735
Leider nur die 256MB version.
Bleibt doch locker Jungs.
Wieviele Leute juckt eigentlich SLI/CF..?
Mich überhaupt nicht und etwa 99% der restlichen Leute auch nicht.
Alle SLI/CF benches gehen mir sowas von an der Ritze vorbei sage ich euch ;)
deekey777
2006-01-24, 23:47:19
Und hier die überlegene shaderpower
shadermark 2.1, Werte von Hothardware, Durchschnitt ausgerechnet.
7800 GTX 512: 437
X1900XTX: 484
X1900XTX krasse 10.7% schneller --> WOW, ich flipp aus ;)
Und DAS soll die Konkurrenz zur G71 sein?
Warst du nicht früher auf Reviews von Digit-Life geil?
http://www.digit-life.com/articles2/video/r580-part2.html#p5
Schaue dir mal die Ergebnisse mit D3D Rightmark Beta 4 an.
reunion
2006-01-24, 23:48:21
Und hier die überlegene shaderpower
shadermark 2.1, Werte von Hothardware, Durchschnitt ausgerechnet.
7800 GTX 512: 437
X1900XTX: 484
X1900XTX krasse 10.7% schneller --> WOW, ich flipp aus ;)
Und DAS soll die Konkurrenz zur G71 sein?
Die einzige Aussagekraft, die Shadermark noch hat, ist wie gut einzelne Hersteller auf einen Bench optimieren können.
doom1
2006-01-24, 23:50:10
@All
So ich hab jetzt genug gelacht ich geh pennen viel Spaß noch ;D
Mr. Lolman
2006-01-24, 23:50:31
Und hier die überlegene shaderpower
shadermark 2.1, Werte von Hothardware, Durchschnitt ausgerechnet.
7800 GTX 512: 437
X1900XTX: 484
X1900XTX krasse 10.7% schneller --> WOW, ich flipp aus ;)
Und DAS soll die Konkurrenz zur G71 sein?
http://www.elitebastards.com/hanners/club3d/x1900xtx/charts/rightmark-ps.png
http://www.ixbt.com/video2/images/r580/d3drm-ps3.png
9800ProZwerg
2006-01-24, 23:50:53
Leider nur die 256MB version.
Die 512MB Variante kostet noch 440€!
Dafür muss die X1800XL endlich unter 300€ fallen!
dildo4u
2006-01-24, 23:51:08
http://www.elitebastards.com/hanners/club3d/x1900xtx/charts/rightmark-ps.png
Schade das da kein G70 dabei ist.
Onkeltom421
2006-01-24, 23:51:59
Das hier viele Leute Ati jetzt so hoch loben wegen dem AF ist mir ein Rätsel?
Ihr wolltet es so haben, ihr bekommt den Schindluder von NV (und teilweise von Ati).
Es ist ne nette Single Karte ja aber dabei gleich so abzudrehen und alles in den Grund und Boden zu rammen nur weils nich Rot ist, also da höhrt der Spass dann doch auf -.-
Hakim
2006-01-24, 23:52:18
X1800XT zum Kampfpreis:
http://www.geizhals.at/eu/?phist=168735
Da sehe ich eine große Lücke entstehen zwischen 360€ und 550€. Entweder wird die X1900XT bald billiger, Richtung 450€, oder es kommt eine X1900 XL für den Preis; die müßte aber auch relativ viel Takt haben, sonst wäre sie zu oft langsamer als die X1800XT.
:eek: krass! ist ja fast 7800GT niveau
(del676)
2006-01-24, 23:52:24
@All
So ich hab jetzt genug gelacht ich geh pennen viel Spaß noch ;D
schön wenn du angesichts der tatsachen noch immer lachen kannst :)
Und hier die überlegene shaderpower
shadermark 2.1, Werte von Hothardware, Durchschnitt ausgerechnet.
7800 GTX 512: 437
X1900XTX: 484
X1900XTX krasse 10.7% schneller --> WOW, ich flipp aus ;)
Und DAS soll die Konkurrenz zur G71 sein?
Tja tombman,aber was du dabei immer wieder zu vergessen scheinst ist das deine so hochgelobten nV-Dinger noch sehr viel langsamer wären wenn sie nur annähernd die selbe Bildqualität bieten würden wie die Karten von Ati !
Also schön flach halten,deine schlechtrederei nervt nämlich enorm.
Die Karten sind schneller,bieten die bessere Bildqualität,sind sofort verfügbar und sind zudem günstiger.
Kauf sie dir oder nicht,ist dein Problem-aber versuch hier nicht deine pro nV-Meinung aufzuzwingen.
Mr. Lolman
2006-01-24, 23:54:14
Schade das da kein G70 dabei ist.
Dafür passts wenigstens gut zu den Farben in deiner Sig X-D
Das hier viele Leute Ati jetzt so hoch loben wegen dem AF ist mir ein Rätsel?
Ihr wolltet es so haben, ihr bekommt den Schindluder von NV (und teilweise von Ati).
Ach was. Selbst das R300/R420 AF ist in grenzwertigen Extremfällen deutlich besser als das G70 AF. All meine Aussagen bezügl AF, beziehen sich immernoch auf das Winkelabhängige (man soll ja mit vergleichbarer BQ testen)
deekey777
2006-01-24, 23:56:09
Schade das da kein G70 dabei ist.
http://www.digit-life.com/articles2/video/r580-part2.html#p5
Die G70 ist eine 7800GTX 512.
tombman
2006-01-24, 23:56:19
Tja tombman,aber was du dabei immer wieder zu vergessen scheinst ist das deine so hochgelobten nV-Dinger noch sehr viel langsamer wären wenn sie nur annähernd die selbe Bildqualität bieten würden wie die Karten von Ati !.
Sie haben praktisch die selbe BQ...
Und verfügbar sind KEINE Crossfire masters, also hat Nvidia die performance Krone weiterhin ;)
Und der Ball ist noch flach, hab ja noch gar nix von Quad SLi gesagt, welches im DELL XPS 600 Renegade schlummert ;)
MartinRiggs
2006-01-24, 23:57:52
Sie haben praktisch die selbe BQ...
Und verfügbar sind KEINE Crossfire masters, also hat Nvidia die performance Krone weiterhin ;)
Und der Ball ist noch flach, hab ja noch gar nix von Quad SLi gesagt, welches im DELL XPS 600 Renegade schlummert ;)
ich kann es net mehr hören, wer will schon vier Grafikchips im rechner????
:ucrazy3:
Mal unter uns. Wer ist hier eigentlich so sehr rot/grün?
Mir ist das sowas von egal. Wenn eine Karte schnell ist, gut.
Ich denke das hier die wenigsten so sehr ATI geil sind, oder Nv.
Für die meisten gilt diese Regel.
Preis/Leistung, PUNKT UND AUS! :smile:
Und wer da jetzt die Nase vorne hat steht ausser Frage.
Zumindest in der High-End Kategorie. Wenn in ein paar Monaten der G71 das anders aussehen läst, BRAVO Nvidia.
=)
Sie haben praktisch die selbe BQ...
Und verfügbar sind KEINE Crossfire masters, also hat Nvidia die performance Krone weiterhin ;)
Und der Ball ist noch flach, hab ja noch gar nix von Quad SLi gesagt, welches im DELL XPS 600 Renegade schlummert ;)
Dann solltest du mal deine Sonnenbrille abnehmen,soll helfen den Tatsachen ins Auge zu sehen.
Die Performacekrone liegt aber schon bei einer x1900xt öfters am Boden,stell dir mal vor wo diese landet wenn da CF im Spiel ist.
Quad GPUs kommen auch von Ati also lass den Ball einfach dort stecken wo du ihn rausziehen wolltest,juckt einfach keine Sau.
tombman
2006-01-25, 00:02:20
ich kann es net mehr hören, wer will schon vier Grafikchips im rechner????
:ucrazy3:
ICH! Solange sie ned mehr Platz einnehmen als 2 dual-slot Karten isses doch egal ;)
Eben. Regt euch mal wieder ab. Ati hat vorgelegt, jetzt ist nVidia dran. Und da kommt sicher etwas nicht minder Starkes. Wer was anderes glaubt, der unterschätzt nV IMHO. ;)
MfG,
Raff
MartinRiggs
2006-01-25, 00:04:15
ICH! Solange sie ned mehr Platz einnehmen als 2 dual-slot Karten isses doch egal ;)
Du hast aber nen reaktor zur stromversorgung im Garten oder? :biggrin:
tombman
2006-01-25, 00:04:55
Quad GPUs kommen auch von Ati
Jo, wieder ein Jahr später ;D
also lass den Ball einfach dort stecken wo du ihn rausziehen wolltest Das wird deine Frau aber nicht freuen ;)
Lightning
2006-01-25, 00:06:35
Jeden Tag erhöht sich zwangsläufig die Anzahl derer, die mich
am Arsch lecken können... Das ist heute DEIN Tag!
HALLOW THE RED BULL ;D :biggrin:
Dafür gibt es einen Punkt. Sowas muss hier echt nicht sein.
Eine Diskussion über die Bepunktung ist wie immer nicht hier im Thread, sondern, falls gewünscht, per PN mit dem jeweiligen Moderator oder im "Über die Webseite und das Forum"-Forum zu führen.
tombman
2006-01-25, 00:06:52
Du hast aber nen reaktor zur stromversorgung im Garten oder? :biggrin:
Wieso, Computer verbrauchen verglichen mit den restlichen Haushaltsgeräten verdammt wenig... ein paar € pro Monat nur...
InsaneDruid
2006-01-25, 00:10:16
Eben. Regt euch mal wieder ab. Ati hat vorgelegt, jetzt ist nVidia dran. Und da kommt sicher etwas nicht minder Starkes. Wer was anderes glaubt, der unterschätzt nV IMHO. ;)
MfG,
Raff
Ich bin sogar sehr sicher und erwarte es, das NV den 1900er wieder überbietet. Wär schlimm wenns nicht so wäre. Wo bliebe dann die Konkurrenz und die fallenden Preise?
Frank1974
2006-01-25, 00:11:16
Eben. Regt euch mal wieder ab. Ati hat vorgelegt, jetzt ist nVidia dran. Und da kommt sicher etwas nicht minder Starkes. Wer was anderes glaubt, der unterschätzt nV IMHO. ;)
MfG,
Raff
Auf so einen Satz habe ich gewartet,es kommen zwar immer mehr neue Karten, in immer kürzeren Abständen, aber bei den Spielen fehlt mir doch schon seid gewisser Zeit das WOW sieht das KLASSE aus, kann ja sein das es nur mir so geht aber bei der Software gibt im Gegensatz zur Hardware nichts besonderes, wenn schon neue Hardware dann aber auch mit Spielen die eine Grafik hat die mich sofort umhaut, ich sehe immer nur aufgewärmtes Zeug :mad:
MFG
Frank
Jo, wieder ein Jahr später ;D
Das wird deine Frau aber nicht freuen ;)
Bin zwar nicht verheiratet,aber schon alleine diese auf persönliche Beleidigung abzielende Meldung ist es Wert dir hier einen Tritt in Richtung Ausgang zu verpassen.
Du bist wohl noch nicht reif genug um zu realisieren das es hier nur um Grafikkarten geht ,was?
Radeonator
2006-01-25, 00:14:04
647,- Euro + Versand...Aussagekräftiger als jede Balkenlänge in welchem Bench auch immer :crazy:
Schade das es auch noch Idioten gibt, die so viel Geld für 3-6Monate Benchmark Victorys für eine Desktop Graka rausschmeißen. So langsam spinnen die echt mit ihren Preisen :crazy:
Auf so einen Satz habe ich gewartet,es kommen zwar immer mehr neue Karten, in immer kürzeren Abständen, aber bei den Spielen fehlt mir doch schon seid gewisser Zeit das WOW sieht das KLASSE aus, kann ja sein das es nur mir so geht aber bei der Software gibt im gegensatz zur Hardware nichts besonderes ,wenn schon neue Hardware dann aber auch mit Spielen die eine Grafik hat die mich sofort umhaut, ich sehe immer nur aufgewärmtes Zeug :mad:
MFG
Frank
Keiner zwingt dich, jedes Mal gleich den neuen (völlig überteuerten) Kram zu kaufen. Und mit Oblivion, Gothic III und Crysis kommt 2006 sicher wieder ein kleinerer Aha-Effekt. =)
MfG,
Raff
tombman
2006-01-25, 00:17:31
Bin zwar nicht verheiratet,aber schon alleine diese auf persönliche Beleidigung abzielende Meldung ist es Wert dir hier einen Tritt in Richtung Ausgang zu verpassen.
Du bist wohl noch nicht reif genug um zu realisieren das es hier nur um Grafikkarten geht ,was?
Wennst ned einstecken kannst, solltest vielleicht nicht versuchen auszuteilen, gelle? ;)
ON.T:
Sehr nette INQ Benchmarks, alle schön auf einen Blick
http://www.the-inquirer.com/?article=29229
deekey777
2006-01-25, 00:17:32
Eben. Regt euch mal wieder ab. Ati hat vorgelegt, jetzt ist nVidia dran. Und da kommt sicher etwas nicht minder Starkes. Wer was anderes glaubt, der unterschätzt nV IMHO. ;)
MfG,
Raff
Ach komm, das würde das Absinken des Niveau in diesem Thread nur verlangsamen, braucht kein Schwein.
Ich bin sogar sehr sicher und erwarte es, das NV den 1900er wieder überbietet. Wär schlimm wenns nicht so wäre. Wo bliebe dann die Konkurrenz und die fallenden Preise?
Wenn der Takt der G71 stimmt, wird es entweder ein "XTX PE" BIOS geben oder gleich eine XTX PE. Oder eine X1900XTX 1024 MB mit 700-750/800-900MHz.
Auf so einen Satz habe ich gewartet,es kommen zwar immer mehr neue Karten, in immer kürzeren Abständen, aber bei den Spielen fehlt mir doch schon seid gewisser Zeit das WOW sieht das KLASSE aus, kann ja sein das es nur mir so geht aber bei der Software gibt im Gegensatz zur Hardware nichts besonderes, wenn schon neue Hardware dann aber auch mit Spielen die eine Grafik hat die mich sofort umhaut, ich sehe immer nur aufgewärmtes Zeug :mad:
MFG
Frank
Jep, ist auch einer der Gründe wieso ich wohl bis D3D10 warten werde und das mit meiner 9800pro. Ich will für das viele Geld sowas im Gesicht stehen haben :eek:, dann sollte sowas kommen :love2: und so enden :umassa: .
;)
(del676)
2006-01-25, 00:20:10
647,- Euro + Versand...Aussagekräftiger als jede Balkenlänge in welchem Bench auch immer :crazy:
Schade das es auch noch Idioten gibt, die so viel Geld für 3-6Monate Benchmark Victorys für eine Desktop Graka rausschmeißen. So langsam spinnen die echt mit ihren Preisen :crazy:
nvidia spinnt mir ihren preisen ja :)
wieviel kostet eine lagernde 512mb gtx? -> 660 Euro
wieviel kostet eine lagernde 1900xt? -> 570 Euro (schneller, und bessere BQ)
wenn die 570 in den nächsten 3-4 wochn noch auf ~530 sinkt passts doch
eine XTX ist ... ka was ati da geritten hat, aber das "mehr" am mhz ist ja praktisch schon meßungenauigkeit X-D
[dzp]Viper
2006-01-25, 00:21:02
Wennst ned einstecken kannst, solltest vielleicht nicht versuchen auszuteilen, gelle? ;)
ON.T:
Sehr nette INQ Benchmarks, alle schön auf einen Blick
http://www.the-inquirer.com/?article=29229
lol das bei den INQ Benchmarks was nicht stimmt sieht man schon daran, dass fast überall um die 80fps sind...
Desweiteren haben die mal eben eine übertaktete 5800GTX genommen.. lol wie vergleichbar :up:
P.S. Schon lustig, wie du aufeinmal jede sonst so unseriose Quelle plötzlich nimmst um deine Meinung durchzusetzen...
aber sobald sie nicht deiner Meinung entspricht wäre die Quelle vernachläßigbar..
tombman.. denk mal drüber nach....
Ach komm, das würde das Absinken des Niveau in diesem Thread nur verlangsamen, braucht kein Schwein.
Wenn der Takt der G71 stimmt, wird es entweder ein "XTX PE" BIOS geben oder gleich eine XTX PE. Oder eine X1900XTX 1024 MB mit 700-750/800-900MHz.Naja, ne XT-PE vielleicht, aber ich halte es nicht für sehr wahrscheinlich ehrlich gesagt. Und bis wir Karten mit 1GB Vram sehen werden, wird auch noch ein wenig Zeit vergehen.
don_salieri
2006-01-25, 00:22:57
Die GPU wird unter Last bis zu 94 Grad heiß :eek:
Mich wundert, dass dies angesichts des 90nm-Prozeß so problemlos möglich ist...wenn man sich nämlich mal im Vergleich die CPUs ansieht, stellt man fest, dass hier mit kleiner werdenden Strukturbreiten auch die max. Kerntemperatur immer weiter gesenkt wurde. Beim Athlon64 X2 sind beispielsweise nur noch 70 Grad erlaubt.
Ich kann mir gut vorstellen, dass die Lebensdauer einer X1900XT(X)-Karte bei intensiver Nutzung deutlich kürzer ist, als beispielsweise bei einer X800XT, die ja im 130nm low-k Prozeß hergestellt wird und dadurch erheblich weniger Strom verbraucht.
So schnell die X1900XT(X) auch sein mag, ich finde sie aufgrund der extremen Hitzeentwicklung völlig indiskutabel. Ich kann nur hoffen, dass ATI bei der nächsten Generation wieder auf eine stromsparendere Prozesstechnologie setzt. Dann würde ich evtl. auch wieder eine ATI-Karte kaufen...so ein stromfressendes Monster wie eine X1800 oder X1900 kommt mir jedenfalls nicht in den Rechner.
Viper']
Desweiteren haben die mal eben eine übertaktete 5800GTX genommen.. lol wieWarum redest du eigentlich dauernd von einer 5800GTX? Ein Schreibfehler kanns nicht sein, in einem anderen Thread hast du es auch schon mehrmals geschrieben.
Keiner zwingt dich, jedes Mal gleich den neuen (völlig überteuerten) Kram zu kaufen. Und mit Oblivion, Gothic III und Crysis kommt 2006 sicher wieder ein kleinerer Aha-Effekt. =)
MfG,
Raff
Ja!!Nicht nur die Grafik verschlingen,sondern mehr die Story verfolgen.
p.s. man koennte sagen das du der klugste hier bist.Einfach die bilig CPU/GPU kaufen und auf High-End Niveau bringen,und ~600 in einen guten Urlaub investieren. :massa:
Frank1974
2006-01-25, 00:26:05
Keiner zwingt dich, jedes Mal gleich den neuen (völlig überteuerten) Kram zu kaufen. Und mit Oblivion, Gothic III und Crysis kommt 2006 sicher wieder ein kleinerer Aha-Effekt. =)
MfG,
Raff
Schön wärs, aber diesen Aha-Effekt habe ich seid ein paar Jahren nicht mehr erlebt, mir geht es Hauptsächlich auch um Spielspaß, wie bei der GTA Reihe die hat mir immer den Aha-Effekt gegeben obwohl die Grafik wirklich schlecht ist, aber das Spielprinzip finde ich genial.
Ich spiele aber auch schon länger als es den C64 gibt.Ich habe mit Stichgrafik begonnen, und jede Etappe der Grafikentwicklung miterlebt, aber es gibt einfach keine Großen Sprünge mehr in letzter Zeit, so wie ich es von früher gewohnt war, ist nun mal so :frown:
MFG
Frank
Ailuros
2006-01-25, 00:27:36
Keiner zwingt dich, jedes Mal gleich den neuen (völlig überteuerten) Kram zu kaufen. Und mit Oblivion, Gothic III und Crysis kommt 2006 sicher wieder ein kleinerer Aha-Effekt. =)
MfG,
Raff
*schiebt im geheimen noch UT2k7 in die Liste....hoffentlich....* :D
Ich will aber trotzdem eine D3D10 GPU :P
LovesuckZ
2006-01-25, 00:28:30
Viper']
Desweiteren haben die mal eben eine übertaktete 5800GTX genommen.. lol wie vergleichbar :up:
Wo liegt den die Analogie zwischen der 5800 und der 7800 GTX?
Oder wird sich nur heruntergearbeitet, auf 0?
Bei 5900 warst du ja schon.
deekey777
2006-01-25, 00:28:46
*schiebt im geheimen noch UT2k7 in die Liste....hoffentlich....* :D
Ich will aber trotzdem eine D3D10 GPU :P
Sind wir hier bei "Wünsch Dir was"?
Warum redest du eigentlich dauernd von einer 5800GTX? Ein Schreibfehler kanns nicht sein, in einem anderen Thread hast du es auch schon mehrmals geschrieben.
Ist wohl eine Stichelei wegen der Verfügbarkeit der 7800GTX 512.
tombman
2006-01-25, 00:29:10
Viper']lol das bei den INQ Benchmarks was nicht stimmt sieht man schon daran, dass fast überall um die 80fps sind...
Desweiteren haben die mal eben eine übertaktete 5800GTX genommen.. lol wie vergleichbar :up:
das ist keine übertaktete 7800 512mb GTX. Fast jede auf dem Markt befindliche 512er hat das fest als Standardtakt!!
Ist vielleicht nicht der Referenztakt, aber so kamen und kommen sie auf den Markt, ist nun mal ne Tatsache ;)
Ja!!Nicht nur die Grafik verschlingen,sondern mehr die Story verfolgen.
p.s. man koennte sagen das du der klugste hier bist.Einfach die bilig CPU/GPU kaufen und auf High-End Niveau bringen,und ~600 in einen guten Urlaub investieren. :massa:
=)
Nun, dank mehreren Cores und nicht mehr freischaltbaren "Pipelines" wird das immer schwerer ... ;(
Schön wärs, aber diesen Aha-Effekt habe ich seid ein paar Jahren nicht mehr erlebt, mir geht es Hauptsächlich auch um Spielspaß, wie bei der GTA Reihe die hat mir immer den Aha-Effekt gegeben obwohl die Grafik wirklich schlecht ist, aber das Spielprinzip finde ich genial.
Ich spiele aber auch schon länger als es den C64 gibt.Ich habe mit Stichgrafik begonnen, und jede Etappe der Grafikentwicklung miterlebt, aber es gibt einfach keine Großen Sprünge mehr in letzter Zeit, so wie ich es von früher gewohnt war, ist nun mal so :frown:
MFG
Frank
Ganze Dimensionssprünge wie von 2 auf 3D wird es nicht mehr geben ... alles jetzt ist nur Kosmetik, leider. Man kann nur noch mehr Interaktivität integrieren. Und wenn bei Crysis alles zerstörbar ist, dann macht das sicher "AHA".
*schiebt im geheimen noch UT2k7 in die Liste....hoffentlich....* :D
Ich will aber trotzdem eine D3D10 GPU :P
Oh ja, das hatte ich vergessen (wie konnte ich). Thema D3D10: Kommt doch, aber bis dahin tut es auch was vom Kaliber G70/R520. ;)
MfG,
Raff
Ailuros
2006-01-25, 00:37:19
Ich habe mit Stichgrafik begonnen, und jede Etappe der Grafikentwicklung miterlebt, aber es gibt einfach keine Großen Sprünge mehr in letzter Zeit, so wie ich es von früher gewohnt war, ist nun mal so :frown:
Also die gigantischen Spruenge der Vergangenheit muss ich verpasst haben; es gab zwar gewisse "hoppla" Momente im Bereich des Gameplay, aber Bildqualitaet stieg damals auch nicht um sooo viel mehr. Im Gegensatz wuerde ich eher sagen dass mit dem zunehmenden Shader-Firlefanz es in letzter Zeit schneller bergauf geht als je zuvor und sobald dann auch noch Spiele mit float HDR noch ankommen umso mehr.
Im idealen Fall wuerde ich persoenlich natuerlich auch innovativere Ideen im Bereich vom Gameplay wuenschen kombiniert mit hoeherem IQ. Einem Spieler nutzt es nicht viel wenn ein Spiel zwar atemberaubende Grafik hat, es aber nach ner halben Stunde zum einschlafen langweilig wird.
Ailuros
2006-01-25, 00:38:44
Oh ja, das hatte ich vergessen (wie konnte ich). Thema D3D10: Kommt doch, aber bis dahin tut es auch was vom Kaliber G70/R520. ;)
MfG,
Raff
Ich hab keine besondere Lust bis dahin aufzuruesten. Und mir ist es auch wurscht wenn die Dinger in DX9.0 Spielen nicht schneller sein sollten.
[dzp]Viper
2006-01-25, 00:39:22
Warum redest du eigentlich dauernd von einer 5800GTX? Ein Schreibfehler kanns nicht sein, in einem anderen Thread hast du es auch schon mehrmals geschrieben.
sry zahlenverdrücker wegen zeitdruck (alt-tab :D )
Was denkt ihr, wann könnte eine r580 mit GDDR4 kommen?
schon zur Cebit?
Was wäre der leistungssprung? 30%
[dzp]Viper
2006-01-25, 00:43:05
Wo liegt den die Analogie zwischen der 5800 und der 7800 GTX?
Oder wird sich nur heruntergearbeitet, auf 0?
Bei 5900 warst du ja schon.
ich kann mir ja mal einen Fehler erlauben und "normal" darauf hingewiesen werden oder?
Sry aber was manche hier für oberflächliches Zeug schreiben und die Informationen so auslegen wie es ihnen gerade passt, ist viel schlimmer als wenn ich mich unter Zeitdruck 2-3x verschreibe :rolleyes:
Und persönlich brauch ich mich wegen sowas auch nicht anmachen zu lassen :rolleyes:
Wenn der Umgangston hier nicht etwas gemäßigter wird, dann wird es bald Punkte regeln... Es geht hier um Grafikkarte und keine Weltreligion
=)
Nun, dank mehreren Cores und nicht mehr freischaltbaren "Pipelines" wird das immer schwerer ... ;(
Ganze Dimensionssprünge wie von 2 auf 3D wird es nicht mehr geben ... alles jetzt ist nur Kosmetik, leider. Man kann nur noch mehr Interaktivität integrieren. Und wenn bei Crysis alles zerstörbar ist, dann macht das sicher "AHA".
Oh ja, das hatte ich vergessen (wie konnte ich). Thema D3D10: Kommt doch, aber bis dahin tut es auch was vom Kaliber G70/R520. ;)
MfG,
Raff
Heheh,ein Holodeck wurde schon einen "AHA-Effekt" ausloesen. ^^
Das waere ein Quantensprung.
Frank1974
2006-01-25, 00:46:00
Ganze Dimensionssprünge wie von 2 auf 3D wird es nicht mehr geben ... alles jetzt ist nur Kosmetik, leider. Man kann nur noch mehr Interaktivität integrieren. Und wenn bei Crysis alles zerstörbar ist, dann macht das sicher "AHA".
Ja da hast du wohl Recht, leider :frown: , aber man muss sich dann wohl oder übel in den nächsten Jahren, mit immer keineren Grafikverbesserungen zufrieden geben ;( .
MFG
Frank
Ailuros
2006-01-25, 00:46:22
Was denkt ihr, wann könnte eine r580 mit GDDR4 kommen?
schon zur Cebit?
Was wäre der leistungssprung? 30%
Beide IHVs sollen den Mist bleiben lassen und ihre wertvolle Resourcen woanders investieren.
Von dem abgesehen sehe ich mit AA/AF bis zu 1600 keine nennenswerten Bandbreiten-Limitierungen auf R580 in heutigen Spielen. Bei hoeheren Aufloesungen waere es natuerlich eine andere Geschichte.
Viper']ich kann mir ja mal einen Fehler erlauben und "normal" darauf hingewiesen werden oder?
Sry aber was manche hier für oberflächliches Zeug schreiben und die Informationen so auslegen wie es ihnen gerade passt, ist viel schlimmer als wenn ich mich unter Zeitdruck 2-3x verschreibe :rolleyes:
Und persönlich brauch ich mich wegen sowas auch nicht anmachen zu lassen :rolleyes:
Wenn der Umgangston hier nicht etwas gemäßigter wird, dann wird es bald Punkte regeln... Es geht hier um Grafikkarte und keine Weltreligion
dann solltest du mal bei dir anfangen mit deinem "lol"
Was denkt ihr, wann könnte eine r580 mit GDDR4 kommen?
schon zur Cebit?
Was wäre der leistungssprung? 30%Ich denke es wird überhaupt keinen R580 mit GDDR4 geben. Nur weil der Speichercontroller es kann, heißt das noch lange nicht, dass es auch entsprechende Boards geben wird. Höchstwahrscheinlich wird man den Speichercontroller mit ein paar Veränderungen auch für den R600 übernehmen und da wäre es halt ganz gut, wenn er schon mit GDDR4 umgehen könnte.
Ailuros
2006-01-25, 00:51:45
Ja da hast du wohl Recht, leider :frown: , aber man muss sich dann wohl oder übel in den nächsten Jahren, mit immer keineren Grafikverbesserungen zufrieden geben ;( .
MFG
Frank
Hmmmm..... :|
http://www.beyond3d.com/reviews/ati/r580/images/shaderuse.gif
http://www.beyond3d.com/reviews/ati/r580/images/shaderproj.gif
http://www.beyond3d.com/reviews/ati/r580/index.php?p=02
http://images.anandtech.com/reviews/video/3dmark06/canyonflight.jpg
http://www.anandtech.com/video/showdoc.aspx?i=2675&p=2
(del)
2006-01-25, 00:55:30
Ich bin sogar sehr sicher und erwarte es, das NV den 1900er wieder überbietet. Wär schlimm wenns nicht so wäre. Wo bliebe dann die Konkurrenz und die fallenden Preise?
Solange NV also ATI überbietet ist das wegen der Konkurenz und fallenden Preisen also ok? :D Gönnst Du den Jungs keine paar Monate Erfolg für die harte Arbeit? Ich hoffe DAS bleibt auch so. ATI hats nötiger als NV.
sklave_gottes
2006-01-25, 01:01:22
das ist keine übertaktete 7800 512mb GTX. Fast jede auf dem Markt befindliche 512er hat das fest als Standardtakt!!
Ist vielleicht nicht der Referenztakt, aber so kamen und kommen sie auf den Markt, ist nun mal ne Tatsache
tatsache ist auch das sich die dinger so gut wie garnicht mehr übertakten lassen!
es sind nunmal pump karten.
SKYNET
2006-01-25, 01:02:47
Ich bin sogar sehr sicher und erwarte es, das NV den 1900er wieder überbietet. Wär schlimm wenns nicht so wäre. Wo bliebe dann die Konkurrenz und die fallenden Preise?
das der G71 die X1900XTX matt setzt, sollte wohl jedem logisch denkendem menschen klar sein.... schon alleine weil der mal eben fast 200MHz höher am core und 150MHz b.z.w. 300MHz DDR am speicher taktet... dann kommen nochmal 2 quads dazu... NV lässt sich nicht mehr so einfach die butter vom brot nehmen, das NV3x debakel war ihnen eine lehre! ;)
Frank1974
2006-01-25, 01:08:46
Also die gigantischen Spruenge der Vergangenheit muss ich verpasst haben; es gab zwar gewisse "hoppla" Momente im Bereich des Gameplay, aber Bildqualitaet stieg damals auch nicht um sooo viel mehr. Im Gegensatz wuerde ich eher sagen dass mit dem zunehmenden Shader-Firlefanz es in letzter Zeit schneller bergauf geht als je zuvor und sobald dann auch noch Spiele mit float HDR noch ankommen umso mehr.
Im idealen Fall wuerde ich persoenlich natuerlich auch innovativere Ideen im Bereich vom Gameplay wuenschen kombiniert mit hoeherem IQ. Einem Spieler nutzt es nicht viel wenn ein Spiel zwar atemberaubende Grafik hat, es aber nach ner halben Stunde zum einschlafen langweilig wird.
Ja, da musst du in der Tat was verpasst haben wenn man C64 gespielt hat, dann zum Amiga gewechselt ist, danach seinen ersten PC hatte mit 2D Grafik, dann seine Erste Voodoo Karte mit 4MB(das war einer der Besten Ah-Effekte die ich bis dahin erlebt hatte, UT, Racing Simulation1+2, Die Sims usw.),danach wurden die Verbesserungen aber auch schon weniger, wenn ich mir heute in einigen Spielen die Texturen anschaue, könnte man meinen die sind von 2001-2002.
Und zu den Shadern das mag ja alles schön und gut sein, aber von HDR wie es im Moment ist halte ich garnix, sieht meiner Meinung noch viel zu unrealistisch aus.
Aber im letzten Punkt gebe ich dir vollkommen Recht nichts ist für mich wichtiger als Gameplay,Story und wenns geht der Umfang des Spiels, und das ist es ja auch was ich ausdrücken will, wenn die Grafik dann noch diesen WOW-DAS-HAUT-MICH-UM-Effekt hat,sehe ich das nur als schönen Bonus, ich kann auch ohne Topgrafik meinen Spass an einem Spiel haben.
MFG
Frank
thade
2006-01-25, 01:09:31
das der G71 die X1900XTX matt setzt, sollte wohl jedem logisch denkendem menschen klar sein.... schon alleine weil der mal eben fast 200MHz höher am core und 150MHz b.z.w. 300MHz DDR am speicher taktet... dann kommen nochmal 2 quads dazu... NV lässt sich nicht mehr so einfach die butter vom brot nehmen, das NV3x debakel war ihnen eine lehre! ;)
Erstmal abwarten, dieses ewige NV kann praktisch nicht mehr geschlagen werden, geht mir auf die Nerven. NV soll erstmal nachlegen, wenn sie wieder schneller sind, dann wird ATI auch wieder nachziehen.
Das ist der Lauf der Dinge....
Aber manche NVler übertreiben wieder maßlos mit dem G71 :redface:
StefanV
2006-01-25, 01:12:57
das der G71 die X1900XTX matt setzt, sollte wohl jedem logisch denkendem menschen klar sein.... schon alleine weil der mal eben fast 200MHz höher am core und 150MHz b.z.w. 300MHz DDR am speicher taktet... dann kommen nochmal 2 quads dazu... NV lässt sich nicht mehr so einfach die butter vom brot nehmen, das NV3x debakel war ihnen eine lehre! ;)
Und was bringt das ganze, wenn man kein vernünftiges AF hat? :|
Wenig bis garnichts?
Performance ist zwar wichtig, aber Funktionen, mit denen man die Performance verballern kann, sind besser.
Frank1974
2006-01-25, 01:17:12
Hmmmm..... :|
http://www.beyond3d.com/reviews/ati/r580/images/shaderuse.gif
http://www.beyond3d.com/reviews/ati/r580/images/shaderproj.gif
http://www.beyond3d.com/reviews/ati/r580/index.php?p=02
http://images.anandtech.com/reviews/video/3dmark06/canyonflight.jpg
http://www.anandtech.com/video/showdoc.aspx?i=2675&p=2
Ja, das ist aber jetzt erbärmlich von dir, den 3Dmark06 als Beispiel zu nehmen, die Grafik sieht zwar SUPER aus aber bis die in Echten Spielen so vorkommt dauert es bestimmt noch 1-2 Jahre wenn nicht länger :rolleyes:
Ein Spiel mit der Grafik würde wirklich einen WoW-Effekt bei mir auslösen, aber keine Demo was möglich ist, die Spieleentwickler sind bei weitem noch nicht so weit, oder wollen einfach noch nicht das es so aussieht.
MFG
Frank
DrFreaK666
2006-01-25, 01:17:30
Und was bringt das ganze, wenn man kein vernünftiges AF hat? :|
Wenig bis garnichts?
Performance ist zwar wichtig, aber Funktionen, mit denen man die Performance verballern kann, sind besser.
Ich sehe das zwar genauso, aber ich erinnere mich daran, wie damals auf LANs die Grafik von Quake3 derart heruntergeregelt wurde, so dass es schon fast wie QuakeGL aussah, nur um eine hohe Performance zu haben
Ailuros
2006-01-25, 01:19:32
Ja, da musst du in der Tat was verpasst haben wenn man C64 gespielt hat, dann zum Amiga gewechselt ist, danach seinen ersten PC hatte mit 2D Grafik, dann seine Erste Voodoo Karte mit 4MB(das war einer der Besten Ah-Effekte die ich bis dahin erlebt hatte, UT, Racing Simulation1+2, Die Sims usw.),danach wurden die Verbesserungen aber auch schon weniger, wenn ich mir heute in einigen Spielen die Texturen anschaue, könnte man meinen die sind von 2001-2002.
Ich konzentriere mich mit Absicht nur auf 3D, weil es eben fundamentale Unterschiede zu 2D oder SW rendering hat.
Und zu den Shadern das mag ja alles schön und gut sein, aber von HDR wie es im Moment ist halte ich garnix, sieht meiner Meinung noch viel zu unrealistisch aus.
Ich wuerde erst mal abwarten bis man es in Echtzeit erstmal sieht. Der Shot von 3dfart war mit Absicht, weil der fundamentale Unterschied zwischen Canyon Flight in 05 und 06 eben HDR ist. Unrealistisch auf keinen Fall; die Beleuchtung generell in bisherigen Spielen war eher bisher bekloppt. Stets IMHO.
Aber im letzten Punkt gebe ich dir vollkommen Recht nichts ist für mich wichtiger als Gameplay,Story und wenns geht der Umfang des Spiels, und das ist es ja auch was ich ausdrücken will, wenn die Grafik dann noch diesen WOW-DAS-HAUT-MICH-UM-Effekt hat,sehe ich das nur als schönen Bonus, ich kann auch ohne Topgrafik meinen Spass an einem Spiel haben.
Und hier waeren fundamentalere Innovationen um einiges sinnvoller. Ich will aber trotz allem beides haben.
Armaq
2006-01-25, 01:21:53
Also ich hatte meinen letzten Aha-Effekt mit World of Warcraft. Als alter Wc3Tft Zocker trieb es mir Wasser in die Augen Azeroth so erkunden zu können. Mit so vielen Details und ohne permanent nachzuladen - die Feststellung, dass der Mist süchtig macht hat mich dann wieder runtergebracht.
Dann gab es noch Day of Defeat Source, was CSS erstmal echt alt aussehen ließ (erstes HDR-Game auf meiner Platte).
CoD2 war auch noch nett in manchen Aspekten.
In D³ fand ich die Charakterdarstellung recht gut gelungen.
Far Cry hat ne gute Vegetation.
Kürzlich hat mich cs_milita auch begeistert. Läuft zwar ab und an mit nur noch 35 fps, aber sieht wirklich nach was aus.
Ab und an muss man sich mal Zeit nehmen, für bestimmte Dinge.
OnTopic: Tombman, hör auf mit diesem Gelaber. Die x1900 ist ne gute Karte, wenn auch kein Meilenstein. Es stresst wirklich ziemlich, wenn du alle 5 Posts wieder auf Ati einschlägst.
Blaire, wie ist das genau mit den SLI-Profilen? Was feilst du da zurecht?
edit: Details verbessert, Fehler ausgemerzt.
Ailuros
2006-01-25, 01:22:50
Ja, das ist aber jetzt erbärmlich von dir, den 3Dmark06 als Beispiel zu nehmen, die Grafik sieht zwar SUPER aus aber bis die in Echten Spielen so vorkommt dauert es bestimmt noch 1-2 Jahre wenn nicht länger :rolleyes:
Ein Spiel mit der Grafik würde wirklich einen WoW-Effekt bei mir auslösen, aber keine Demo was möglich ist, die Spieleentwickler sind bei weitem noch nicht so weit, oder wollen einfach noch nicht das es so aussieht.
MFG
Frank
UT2007 ist immer noch fuer dieses Jahr projeziert. Wie ich schon im vorigen Post betonte, es ist fast eine identische Szene wobei in 06 kleinere andere Aenderungen vorkommen + float HDR. Hier kann man auch tatsaechlich den Unterschied sehen.
(del)
2006-01-25, 01:25:16
also lass den Ball einfach dort stecken wo du ihn rausziehen wolltest
Das wird deine Frau aber nicht freuen ;)
Na, mal wieder in Hochform?
DrFreaK666
2006-01-25, 01:26:19
Also die 1900XT erinnert mich irgendwie an die 5900Ultra.
Eine, im Vergleich zur Vorgängerin, technisch polierte Karte.
Mehr nicht. Oder sehe ich das falsch?
(del)
2006-01-25, 01:28:38
Also die gigantischen Spruenge der Vergangenheit muss ich verpasst haben; es gab zwar gewisse "hoppla" Momente im Bereich des Gameplay, aber Bildqualitaet stieg damals auch nicht um sooo viel mehr
VooDoo1 (Glide) wohl verpasst was? :D
Frank1974
2006-01-25, 01:31:59
UT2007 ist immer noch fuer dieses Jahr projeziert. Wie ich schon im vorigen Post betonte, es ist fast eine identische Szene wobei in 06 kleinere andere Aenderungen vorkommen + float HDR. Hier kann man auch tatsaechlich den Unterschied sehen.
Und du meinst wirklich das UT2007 so eine Grafik haben wird, wenn ja dann würde es mich mal wieder Optisch aus den Socken hauen, aber es gibt auch noch andere Spiele, ich zb Spiel gerne Renngames ob Action oder Simulation, da sollten die Entwickler auch mal was an der Umgebung machen, immer diese Platten Grastexturen schon seid ein paar Jahren ist nicht sehr einfallsreich, Autorennen haben einen noch viel größeren Nachholbedarf was Grafik angeht, das Gameplay stimmt ja wie zb GTL zeigt, und die Automodelle passen auch schon, aber die Umgebung hinkt den Autos doch sehr hinterher.
MFG
Frank
(del)
2006-01-25, 01:32:08
Also die 1900XT erinnert mich irgendwie an die 5900Ultra.
Eine, im Vergleich zur Vorgängerin, technisch polierte Karte.
Mehr nicht. Oder sehe ich das falsch?
Es ist ein R580. Kommt nun nach dem R520. So wie R480 nach dem R420 kam. Insofern magst Du Recht haben. Außer, daß der R580 wohl wirklich spiegelglatt poliert ist :)
An den NV3x erinnert und erinnerte mich noch keine ATI Graka ;)
SKYNET
2006-01-25, 01:34:55
Und was bringt das ganze, wenn man kein vernünftiges AF hat? :|
Wenig bis garnichts?
Performance ist zwar wichtig, aber Funktionen, mit denen man die Performance verballern kann, sind besser.
naja, hat ja jahrelang keinen gestört mit dem ATI AF.... und nun jammern alle rum, das NV es auch hat... und es ist ja sogar minimal besser als das winkelabhängige AF von ATI...
(del)
2006-01-25, 01:35:11
Und du meinst wirklich das UT2007 so eine Grafik haben wird, wenn ja dann würde es mich mal wieder Optisch aus den Socken hauen
Dachte ich zuerst auch. Ist zwar OT aber so wirklich hat es erstmal das geschafft. Ich hoffe das ist ingame :D klick (http://www.cartoonland.de/archiv/killzone-2-auf-der-playstation-3/)
SKYNET
2006-01-25, 01:36:03
Erstmal abwarten, dieses ewige NV kann praktisch nicht mehr geschlagen werden, geht mir auf die Nerven. NV soll erstmal nachlegen, wenn sie wieder schneller sind, dann wird ATI auch wieder nachziehen.
Das ist der Lauf der Dinge....
Aber manche NVler übertreiben wieder maßlos mit dem G71 :redface:
ich kann dir versichern, das der G71 die X1900XTX deutlich schlagen wird! =)
(del)
2006-01-25, 01:37:03
und es ist ja sogar minimal besser als das winkelabhängige AF von ATI...
Auch wenn Du dabei auch noch mit dem Beinchen stampfen würdest, ist es nicht. Und jetzt spam bitte nicht rum.
DrFreaK666
2006-01-25, 01:39:32
naja, hat ja jahrelang keinen gestört mit dem ATI AF.... und nun jammern alle rum, das NV es auch hat... und es ist ja sogar minimal besser als das winkelabhängige AF von ATI...
Mich hat es schon gestört und es stört mich immer noch.
Das HQ-AF ist eine gute Sache. Und bei einer High-End Karte will ich auch bestmögliche BQ
StefanV
2006-01-25, 01:49:53
Ja, das ist aber jetzt erbärmlich von dir, den 3Dmark06 als Beispiel zu nehmen, die Grafik sieht zwar SUPER aus aber bis die in Echten Spielen so vorkommt dauert es bestimmt noch 1-2 Jahre wenn nicht länger :rolleyes:
Hm, Age of Empires 3? :|
AOE3? Naja, imho sieht das gar nicht so toll aus, wie die Presse es einen vorher immer glauben lassen wollte.
Frank1974
2006-01-25, 01:52:12
ich kann dir versichern, das der G71 die X1900XTX deutlich schlagen wird! =)
Wieso muss hier jeder das Wort schlagen benutzen, und ich glaube nicht das NV so dumm ist und deutlich vorbei zieht, die müssen sich auch immer reserven lassen,ich glaube auch das der G71 vorbei zieht, aber nur mit einem abstand von sagen wir mal 20-30%.
Das war in den letzten Jahren immer so keine der beiden Firmen ist deutlich vorbei gezogen, sondern immer nur aufs nötigste um sich noch was in der Hinterhand zu halten.
Bsp. Ati brachte x800,NV kam mit der 6800Ultra knapp vorbei und Ati antwortet sofort mit der x850Serie, die wurde dann erst von der 7800Serie abgelöst was Performance angeht, mit Shader3 war NV immer im Vorteil, was aber leider nicht so oft in den Spielen genutzt wurde.
Das sind beides große Firmen die nur an Gewinn denken müssen, kleine Happen bringen mehr ein als 1 Großer.
MFG
Frank
StefanV
2006-01-25, 01:53:16
naja, hat ja jahrelang keinen gestört mit dem ATI AF.... und nun jammern alle rum, das NV es auch hat... und es ist ja sogar minimal besser als das winkelabhängige AF von ATI...
(nur aufs AF bezogen)
Rx100 < Rx2x0 < Rx3x0/4x0 <<< Rx5xx
nV:
NV10 < nV2x > nV3x >>>nV4x/G70
got the difference? :|
Frank1974
2006-01-25, 01:55:08
Hm, Age of Empires 3? :|
AOE3 hat auch nur Standardkost, ein wenig HDR da, paar Effekte da, aber die Texturen sind auch nicht besonders Toll...
MFG
Frank
SKYNET
2006-01-25, 01:59:17
Wieso muss hier jeder das Wort schlagen benutzen, und ich glaube nicht das NV so dumm ist und deutlich vorbei zieht, die müssen sich auch immer reserven lassen,ich glaube auch das der G71 vorbei zieht, aber nur mit einem abstand von sagen wir mal 20-30%.
Das war in den letzten Jahren immer so keine der beiden Firmen ist deutlich vorbei gezogen, sondern immer nur aufs nötigste um sich noch was in der Hinterhand zu halten.
Bsp. Ati brachte x800,NV kam mit der 6800Ultra knapp vorbei und Ati antwortet sofort mit der x850Serie, die wurde dann erst von der 7800Serie abgelöst was Performance angeht, mit Shader3 war NV immer im Vorteil, was aber leider nicht so oft in den Spielen genutzt wurde.
Das sind beides große Firmen die nur an Gewinn denken müssen, kleine Happen bringen mehr ein als 1 Großer.
MFG
Frank
ok, ich drücks dann mal so aus wie es sein wird: der G71 wird den R580 vernichten!
ist diese aussage besser zu verstehn? :|
ok, ich drücks dann mal so aus wie es sein wird: der G71 wird den R580 vernichten!
ist diese aussage besser zu verstehn? :|
Du wolltest doch nicht spamen oder? :crazy2:
BiG OnE
2006-01-25, 02:09:46
Moin, moin
Das war in den letzten Jahren immer so keine der beiden Firmen ist deutlich vorbei gezogen, sondern immer nur aufs nötigste um sich noch was in der Hinterhand zu halten.
sorry, aber mit dem R300 ist Ati damals mit Volldampf an Nvidia vorbeigedonnert.
Bis denne ...
Frank1974
2006-01-25, 02:11:01
ok, ich drücks dann mal so aus wie es sein wird: der G71 wird den R580 vernichten!
ist diese aussage besser zu verstehn? :|
Aber was hat NV davon wenn sie den R580, wie du es ausdrückst vernichten?
Ich verstehe deine Aussagen nicht so ganz, würde ein Vorsprung von 20-30% nicht ausreichen? Dazu noch ein wenig mehr BQ dann ist doch alles in Ordnug.
Seid doch bitte nicht immer so verhaßt den Firmen gegenüber, hat Ati dir Persönlich was getan oder wieso kannst du nur Wörter wie schlagen oder vernichten, verwenden :rolleyes:
Ich bin auch neutral, ich habe von beiden Firmen Karten gehabt und war auch mit beiden zufrieden.
MFG
Frank
StefanV
2006-01-25, 02:11:56
ok, ich drücks dann mal so aus wie es sein wird: der G71 wird den R580 vernichten!
ist diese aussage besser zu verstehn? :|
Aber nicht immer und unter allen Umständen...
thade
2006-01-25, 02:12:09
ok, ich drücks dann mal so aus wie es sein wird: der G71 wird den R580 vernichten!
ist diese aussage besser zu verstehn? :|
Vernichten, das glaubst du doch wohl nicht selber. Der Chip wird sicher gut, aber vernichten. Anscheinend habt ihr NV Fanboys das Hypen nötig, dann gehts euch gut. Naja ATI hat gut vorgelegt, im März oder April sehen wir wie falsch du liegst....
Thade2001, erzähl du hier mal nix von Fanboys, du bist selbst der größe...
Frank1974
2006-01-25, 02:14:04
Moin, moin
sorry, aber mit dem R300 ist Ati damals mit Volldampf an Nvidia vorbeigedonnert.
Bis denne ...
Ja, das stimmt schon, aber wenn ich mich Recht erinnere auch nur weil NV den Chip in den Sand gesetz hat, ATI konnte ja nicht damit rechnen das NV so einen Schlechten Chip baut.
MFG
Frank
tombman
2006-01-25, 02:16:46
Vernichten, das glaubst du doch wohl nicht selber. Der Chip wird sicher gut, aber vernichten. Anscheinend habt ihr NV Fanboys das Hypen nötig, dann gehts euch gut. Naja ATI hat gut vorgelegt, im März oder April sehen wir wie falsch du liegst....
Du kennst Skynets Kontakte nicht, und er hat Recht ;)
Naja, so schlecht wie ihn alle reden war der NV30 gar nicht mal. Er hat nur nicht die erwünschte Performance gebracht, aber in anderen Bereichen (z.b. Technologie, AF) war der NV30 der Konkurrenz haushoch überlegen.
thade
2006-01-25, 02:17:12
Thade2001, erzähl du hier mal nix von Fanboys, du bist selbst der größe...
Wer soll denn Thade sein :|
Ich bin kein Fanboy, ich sage nur was Sache ist. Und wenn einer mal nicht auf ATI schimpft, ist man gleich Fanboy. Naja kommst sicher ausm Hwluxx, Kindergarten ahoi. Seit es das Magazin gibt, ist das HWluxx nur noch von Spinnern umgeben, dort ist man allein als ATI Befürworter.
Meld dich erstmal an, oder haste keinen Mut mir die Meinung so zu sagen, pff da lach ich ja nur.
Frank1974
2006-01-25, 02:21:03
Du kennst Skynets Kontakte nicht, und er hat Recht ;)
Naja vielleicht stimmt es sogar, ich bin kein Insider, aber ist es nicht möglich das ATI auch noch was im Ärmel hat wenn der G71 vorgestellt wird, oder ist das eher unwahrscheinlich :confused:
MFG
Frank
Gouvernator
2006-01-25, 02:21:10
Ich habe mir heute eine von Alternate geholt es sind noch welche da. Eine Asus X1900XTX . Erster Eindruck ist sehr positiv !
Wer soll denn Thade sein :|
Ich bin kein Fanboy, ich sage nur was Sache ist. Und wenn einer mal nicht auf ATI schimpft, ist man gleich Fanboy. Naja kommst sicher ausm Hwluxx, Kindergarten ahoi. Seit es das Magazin gibt, ist das HWluxx nur noch von Spinnern umgeben, dort ist man allein als ATI Befürworter.
Meld dich erstmal an, oder haste keinen Mut mir die Meinung so zu sagen, pff da lach ich ja nur.Thade war mal dein Nickname hier, du erinnerst dich?
Nein, ich komme nicht aus dem HWLuxx, da geht es mir eindeutig zu kindisch zu, da muss ich dir Recht geben.
Warum du ein Fanboy bist? Soll ich mal die Suchfunktion bemühen und ein paar Zitate aus dem Keller holen?
Naja, Menschen können sich ja bekanntlich ändern, aber eine etwas stärkere Neigung zu roten Produkten liest man auch heute noch aus deinen Texten raus. Deshalb finde ich es ein wenig verwunderlich, dass du andere Leute hier als Fanboy betitelst.
SKYNET
2006-01-25, 02:22:40
Aber was hat NV davon wenn sie den R580, wie du es ausdrückst vernichten?
Ich verstehe deine Aussagen nicht so ganz, würde ein Vorsprung von 20-30% nicht ausreichen? Dazu noch ein wenig mehr BQ dann ist doch alles in Ordnug.
Seid doch bitte nicht immer so verhaßt den Firmen gegenüber, hat Ati dir Persönlich was getan oder wieso kannst du nur Wörter wie schlagen oder vernichten, verwenden :rolleyes:
Ich bin auch neutral, ich habe von beiden Firmen Karten gehabt und war auch mit beiden zufrieden.
MFG
Frank
20-30% vorsprung wäre vernichtend! :biggrin:
SKYNET
2006-01-25, 02:24:07
Naja, so schlecht wie ihn alle reden war der NV30 gar nicht mal. Er hat nur nicht die erwünschte Performance gebracht, aber in anderen Bereichen (z.b. Technologie, AF) war der NV30 der Konkurrenz haushoch überlegen.
naja, das AF war das einzige was an dem NV30 wirklich lobenswert war, der rest... naja, ist geschichte... ich sage nur "föhn FX" X-D
Spasstiger
2006-01-25, 02:24:16
Ja, das stimmt schon, aber wenn ich mich Recht erinnere auch nur weil NV den Chip in den Sand gesetz hat, ATI konnte ja nicht damit rechnen das NV so einen Schlechten Chip baut.
MFG
Frank
Der R300 war auch gegenüber der Vorgängergeneration ein enormer Fortschritt. In shaderlastigen DirectX 8.1 konnte man schon die vierfache Framerate messen, siehe z.b. 3DMark03 oder noch davor in der von Nvidia entwickelten Chamäleon-Demo oder generell bei hohen Auflösungen mit AntiAliasing. 1280x960 mit 4-fachem AntiAliasing in UT2003 lief mit einer GeForce 4 Ti mehr schlecht als recht, mit der Radeon 9700 Pro dagegen genauso schnell wie 1024x768 ohne AA (CPU-Limit).
Hinzu kam der DirectX-9-Support.
Und zeitlich gesehen ist der R300 auch näher an den GeForce 4 Ti als an den GeForce FX Karten. ATI hat damals wirklich alle Bemühungen in diesen bis heute noch brauchbaren Chip gesteckt.
Den R580 sollte man dagegen klar als Refresh-Chip sehen. Der Sprung von der Radeon 9700 Pro zur 9800 Pro war ja damals auch nicht sonderlich groß, sogar kleiner als der Sprung bei diesem Refresh. Lag natürlich auch daran, dass Nvidia damals schwächelte (gut, die Ingenieure konnten mit dem FX schon Erfahrungen sammeln, die dazu führten, dass Nvidia viel früher SM3.0 anbieten konnte als ATI).
Ailuros
2006-01-25, 02:26:25
Und du meinst wirklich das UT2007 so eine Grafik haben wird, wenn ja dann würde es mich mal wieder Optisch aus den Socken hauen, aber es gibt auch noch andere Spiele, ich zb Spiel gerne Renngames ob Action oder Simulation, da sollten die Entwickler auch mal was an der Umgebung machen, immer diese Platten Grastexturen schon seid ein paar Jahren ist nicht sehr einfallsreich, Autorennen haben einen noch viel größeren Nachholbedarf was Grafik angeht, das Gameplay stimmt ja wie zb GTL zeigt, und die Automodelle passen auch schon, aber die Umgebung hinkt den Autos doch sehr hinterher.
*ahem* Ich hab Dir darauf geantwortet, als Du sagtest dass es 1-2 Jahre dauern sollte bis float HDR in Spiele kommt. Falls UT2007 tatsaechlich dieses Jahr noch kommt, dann ist es ein Beispiel eines AAA Titels das Deiner Vermutung wiederspricht.
thade
2006-01-25, 02:29:56
Warum du ein Fanboy bist? Soll ich mal die Suchfunktion bemühen und ein paar Zitate aus dem Keller holen?
Naja, Menschen können sich ja bekanntlich ändern, aber eine etwas stärkere Neigung zu roten Produkten liest man auch heute noch aus deinen Texten raus. Deshalb finde ich es ein wenig verwunderlich, dass du andere Leute hier als Fanboy betitelst.
Ich hab mich geändert, ich war vllt früher totaler ATI Befürworter, naja das war mal.
Ich bin nur noch minimal rot, mein Gott, aber da bin ich ziehmlich alleine hier. Les dir die letzen Seiten durch. Objektive Beiträge findet man selten. Entweder man ist grün oder rot. Und die Grünen sind seit G70 deutlich aufm Vormarsch. Das HWluxx ist schon total grün, hier wirds auch immer schlimmer.
Aber manche lernen es nie. Der G71 wird den R580 vernichten, was soll das? Ist doch überhaupt nicht sicher. Und wenn man was dagegen sagt, ist man immer gleich ATI Fanboy, sowas ist unerhört....
SKYNET
2006-01-25, 02:32:45
Naja vielleicht stimmt es sogar, ich bin kein Insider, aber ist es nicht möglich das ATI auch noch was im Ärmel hat wenn der G71 vorgestellt wird, oder ist das eher unwahrscheinlich :confused:
MFG
Frank
=)
Ailuros
2006-01-25, 02:32:54
So langsam ist der Trend mit jedermanns' angeblichen Kontankten stoerend; mich interessiert kein bisschen was auf der Visitenkarte von jemand draufsteht sondern ob das was er behauptet auch Sinn macht.
Dass G71 den R580 "vernichten" wird ist eine Uebertreibung; es wird ihm schon einiges an Bandbreite fehlen. Wo immer die Bandbreite eine kleinere Rolle spielt wird der Vorsprung schon nennenswert sein. Wer spielt aber mit solchen GPUs in weniger als 1600*1200 mit 4xAA/16xAF?
SKYNET
2006-01-25, 02:34:43
Der R300 war auch gegenüber der Vorgängergeneration ein enormer Fortschritt. In shaderlastigen DirectX 8.1 konnte man schon die vierfache Framerate messen, siehe z.b. 3DMark03 oder noch davor in der von Nvidia entwickelten Chamäleon-Demo oder generell bei hohen Auflösungen mit AntiAliasing. 1280x960 mit 4-fachem AntiAliasing in UT2003 lief mit einer GeForce 4 Ti mehr schlecht als recht, mit der Radeon 9700 Pro dagegen genauso schnell wie 1024x768 ohne AA (CPU-Limit).
Hinzu kam der DirectX-9-Support.
Und zeitlich gesehen ist der R300 auch näher an den GeForce 4 Ti als an den GeForce FX Karten. ATI hat damals wirklich alle Bemühungen in diesen bis heute noch brauchbaren Chip gesteckt.
Den R580 sollte man dagegen klar als Refresh-Chip sehen. Der Sprung von der Radeon 9700 Pro zur 9800 Pro war ja damals auch nicht sonderlich groß, sogar kleiner als der Sprung bei diesem Refresh. Lag natürlich auch daran, dass Nvidia damals schwächelte (gut, die Ingenieure konnten mit dem FX schon Erfahrungen sammeln, die dazu führten, dass Nvidia viel früher SM3.0 anbieten konnte als ATI).
stimmt, hatte der NV3x nicht sogar schon technik die über die SM2.0 spezifikationen hinausging? SM2.0a?
SKYNET
2006-01-25, 02:37:58
Aber manche lernen es nie. Der G71 wird den R580 vernichten, was soll das? Ist doch überhaupt nicht sicher. Und wenn man was dagegen sagt, ist man immer gleich ATI Fanboy, sowas ist unerhört....
natürlich ist man nicht gleich ATI fanboy, aber du kennst das forum hier denke ich gut genug, um zu wissen wie die leute reagieren...
Ailuros
2006-01-25, 02:39:56
natürlich ist man nicht gleich ATI fanboy, aber du kennst das forum hier denke ich gut genug, um zu wissen wie die leute reagieren...
Die Uebertreibungen koenntest Du Dir aber trotzdem sparen.
SKYNET
2006-01-25, 02:40:10
So langsam ist der Trend mit jedermanns' angeblichen Kontankten stoerend; mich interessiert kein bisschen was auf der Visitenkarte von jemand draufsteht sondern ob das was er behauptet auch Sinn macht.
Dass G71 den R580 "vernichten" wird ist eine Uebertreibung; es wird ihm schon einiges an Bandbreite fehlen. Wo immer die Bandbreite eine kleinere Rolle spielt wird der Vorsprung schon nennenswert sein. Wer spielt aber mit solchen GPUs in weniger als 1600*1200 mit 4xAA/16xAF?
naja, bandbreite ist auf jedenfall mehr da als bei jeder anderen karte.... 64GB/s. durchsatz, sollten schonmal langen um ein "kleines" standbein zu haben!
Armaq
2006-01-25, 02:41:07
wobei nV sicher einen Zeitvorsprung genießt seit dem Nv40. Bis jetzt arbeitet Ati das immernoch auf. r580 und g71 werden das Optimum für dx9.0c darstellen.
Ansonsten stimme ich all jenen zu die sagen, warum einmal den großen Hammer rausholen, wenn mehrere kleine Schläge auch noch zu meinen Gunsten ausfallen. Wenn ich überlegen bin, muss ich keinen K.O. provozieren.
SKYNET
2006-01-25, 02:41:42
Die Uebertreibungen koenntest Du Dir aber trotzdem sparen.
auf was bezogen? :|
stimmt, hatte der NV3x nicht sogar schon technik die über die SM2.0 spezifikationen hinausging? SM2.0a?Ja, in der Tat war der NV30 schon relativ nahe an SM3 dran.
Aber manche lernen es nie. Der G71 wird den R580 vernichten, was soll das? Ist doch überhaupt nicht sicher. Und wenn man was dagegen sagt, ist man immer gleich ATI Fanboy, sowas ist unerhört....Vernichten wird der G71 den R580 höchstwahrscheinlich nicht. Selbst wenn der Chip theoretisch dazu im Stande wäre, würde NV wohl die Taktraten künstlich runtersetzen, weil es einfach nicht nötig wäre mehr zu bringen. Aus Nvidias Sicht ist es absolut ausreichend, wenn der G71 nur ~20% schneller ist als der R580, auch wenn theoretisch mehr dringewesen wäre.
Ailuros
2006-01-25, 02:43:57
naja, bandbreite ist auf jedenfall mehr da als bei jeder anderen karte.... 64GB/s. durchsatz, sollten schonmal langen um ein "kleines" standbein zu haben!
Es sind 38.4GB/s fuer 10.32GPixels/s auf der 7800GTX 256. Um die Analogie zu erhalten muesste G71 nur auf 530+MHz getaktet sein.
Ein kleines Standbein ist noch lange keine Vernichtung.
SKYNET
2006-01-25, 02:47:11
Es sind 38.4GB/s fuer 10.32GPixels/s auf der 7800GTX 256. Um die Analogie zu erhalten muesste G71 nur auf 530+MHz getaktet sein.
Ein kleines Standbein ist noch lange keine Vernichtung.
das stimmt schon, weil das die bandbreite knapp wird, merkt man bei der "normalen" GTX ja schon sehr deutlich! :(
thade
2006-01-25, 02:48:10
wobei nV sicher einen Zeitvorsprung genießt seit dem Nv40
Nur weil der R420 kein PS.3 hatte? Der Vorsprung, gibt es überhaupt Einen :confused: , hat NV durch die Verzögerungen des R520 erhalten.
Aber Vorsprung seitens NV sehe ich nicht. NV muss noch auf 90nm,braucht HQAF(kein eigentlich Prob, naja bei NV weiß man nie), HDR + AA, das hat ATI schon geschafft.
Denke nicht, dass NV durch die Probs von ATI mit 90nm profitiert, obwohl ja beide bei TSMC fertigen lassen.
Nur weil der R420 kein PS.3 hatte?Dass ATi sehr lange Zeit technisch hinterherhang, hat mehr ausgemacht als du vielleicht glaubst. Schade, ich hätte es toll gefunden wenn ATI früher SM3 gehabt hätte, dann wären wir damit jetzt in Spielen schon viel weiter.
So muss auch mal meinen Senf dazu geben.
Das manche Leute Nvidia verteiligen bis zum Abwinken ist hier nicht sonderlich Hilfreich. Es ist doch so...
Vergleichen wir mal eine Radeon 9800 Pro und eine 6800GT
Wenn ich jemanden frage welche der Karten schneller ist dann sagt mir fast jeder natürlich die Geforce die hat mehr Frames ist hammer schnell usw.
Nur keiner der Leute sagt mir das ich zwar eine karte mit höheren FPS Werten besitze diese aber wiederum eine grottenschlechte Bild Qualität sowie Treiber Probleme aufweisst die ich mit der vermeintlischen Radeon nicht gehabt hätte.
Alles was bei der Geforce nicht H Quality gezockt wird ist shit. Stellst den Regler auf Leistung musst mit ansehen wie in deinem Mohaa Wände Lila sind oder bei Css das Texturflimmern in Aztek ! Was bitte denkt man sich dabei eine Graka zu verteidigen die noch nichtmal im Stande ist ein Rasen Grün zu erzeugen. Das einzige was Sie ausser schnellen Frames bieten kann ist ein Atomarer verseuchter Rasen den man sich für teuers geld gekauft hat.
übrigens was soll das mit dem ja die 7900 Owend alles ? Was ? Wie ? mit einer noch schlechteren BQ ? Einem Noch grellerem Ultra leuchtenden Rasen ? Mit noch schlechteren Treibern die Wände in Lila und Rosa Schweinchen umwandeln ?
Jeder der nur ein wenig drüber nachdenkt hat sich schonmal über diese probleme beschwert und kann dieses nicht verleugnen ausser er hatte noch nicht die möglichkeit eine ATI zu Besitzen.
Vergleichen wir mal eine Radeon 9800 Pro und eine 6800GT
Wenn ich jemanden frage welche der Karten schneller ist dann sagt mir fast jeder natürlich die Geforce die hat mehr Frames ist hammer schnell usw.
Nur keiner der Leute sagt mir das ich zwar eine karte mit höheren FPS Werten besitze diese aber wiederum eine grottenschlechte Bild Qualität .Errm, in welcher Hinsicht soll die Bildqualität der 9800pro denn bitte besser sein im Vergleich zur 6800GT? Vorraussetzung, dass man die Optimierungen auf beiden Karten abstellt.
Und wer bitte stellt den Schalter im Treiber auf "Leistung"? Wer macht sowas?
Also ich kann Fear mit HQ nicht zocken ich muss runterstellen !!! bei anderen Spielen ist das nicht anders. Nicht jeder Besitzt ein SLI System. Oder ist das bei Dir anders ?
Nein, ich besitze auch kein SLI-System. Trotzdem lasse ich den Schalter auf HQ, wo er hingehört. Lieber schalte ich dann mal eine AA-Stufe zurück.
Ja und ? Trotzdem bleibt der Rasen Atom verseucht Grün und trotzdem habe ich in Mohaa Rosa Wände auf Bazzar. Welche verbesserung habe ich dadurch ob ich HQ zocke oder Leistung wenn die Wände rosa bleiben. Schöneres Rosa ? Einen Touch mehr total übertriebenen Grünen Rasen ? Wieso bietet mir die Ati kein so grelles grün oder schweinchen Rosa :)
Dann stimmt aber irgendwas nicht, wenn du rosa Wände bekommst. Jedenfalls ist das nicht normal. Welche Karte und welcher Treiber?
Auch bei ATI gibt es manchmal Grafikfehler. Diese sind aber genausowenig normal wie sie es bei Nvidia sind.
Treiber ? Es ist egal welcher treiber... Das Texturflimmern bleibt und manche Wände sind einfach rosa !! Die Graka ist schon in Ordnung. Es liegt einfach an den schlechten Treibern. Und einem Texturflimmern den man nicht weg bekommt. Die Unterschiede zur Ati sind enorm. Wenn meine x1900XTX da ist zeig ich dir gerne mal den unterschied an hand von Screens :)
Schon peinlich, die Effzienz von Crossfire ;D
Dein Bild ;)
http://www.hothardware.com/articleimages/Item777/fe2.png
Also Tombmans gesülze kann einem echt auf den Zeiger gehen...
Rechne mal die Effizienz der beiden Lösungen in Prozent aus, 1900XT<>1900CF vs. 7800<>7800SLI
uuuuuuuups,fast identisch...
Gouvernator
2006-01-25, 05:53:29
Hauptsache ich kann jetzt BF2 mit 6xAA bei 2048x1536 zocken :lol:
Na Kinder?
Schon genug gespammt?
Jetzt back to Topic,aber dali!!
OnT.
Hmm,da ich ein NB Benutzer bin werde ich in den Genuss von solchen Karten wahrscheinlich nie kommen.Vieleicht baue ich mir ein Barebon mit einer x1700. :tongue:
(del676)
2006-01-25, 07:51:29
naja, hat ja jahrelang keinen gestört mit dem ATI AF.... und nun jammern alle rum, das NV es auch hat... und es ist ja sogar minimal besser als das winkelabhängige AF von ATI...
falsch
jeder nvidia-user hat rumgeflennt wegen der ach so beschissenen qualität.
nun plötzlich ist das drex-af der nvidia aber gut genug
doppelmoral ahoi :rolleyes:
Kladderadatsch
2006-01-25, 08:19:07
Dann stimmt aber irgendwas nicht, wenn du rosa Wände bekommst. Jedenfalls ist das nicht normal. Welche Karte und welcher Treiber?
Auch bei ATI gibt es manchmal Grafikfehler. Diese sind aber genausowenig normal wie sie es bei Nvidia sind.
stimmt schon, ohne hq hat man in mohaa lila wände, das ist mir auch schon ngeativ aufgefallen. aber wenn ich mich recht erinnere, hat q auch schon ausgereicht, um das zu beheben. (und hq vs. q macht z.b. in fc immerhin 10 fps aus...)
[dzp]Viper
2006-01-25, 08:22:46
Das ist die letzte Warnung an die Leute, die hier persönliche Beleidigungen, Spam und Offtopiczeug in den Thread bringen... Unterlasst es, sonst wird es hier heute noch Punkte geben und zwar nicht zu knapp!
Ihr benehmt euch wie Kindergarten.. Jedes mal das selbe. Da rennen manche Leute mit Scheunenklappen durch die Benchmarks und schauen sich nur das an, was ihnen gefällt und ihre Meinung unterstützt.
Wenn ihr über den G71 spekulieren wollt, dann macht das im eigenes dafür vorgesehenen Thread und nicht hier... Ich hoffe ihr könnte euch selber denken warum...
doom1
2006-01-25, 09:04:48
Ist doch zwecklos deshalb zieh ich es mittlerweile nur noch ins Ironische...Kein Mensch hier hat die Karte geschweige denn FEAR zb.damit gespielt usw.aber sie ist das größte auf der Welt +100Grad mehr im Gehäuse :confused: Anspielungen (zb. Ich)ob sichs lohnt von einem SLI auf ne Einzelkarte umzusteigen...was da an Antworten kommen...und ich mach auch noch mit..na ja war spät gestern...schlaue Leute wie Razor und CO halten sich da raus und denken sich ihren Teil.
svenw
2006-01-25, 09:20:42
Ich frage mich, worüber heir teilweise diskutiert wird.
Natürlich iit die jetzige ATI schneller als die Nvidia.
Und natürlich wird die nächste Kartengeneration von Nvidia schneller sein als die jetzigen ATIs selbst wenn sie einen Hamster draufschnalllen müßten! und danach wird wieder die nächste ATI Generation schneller sein, dafür bekommt deren Hamster regelmäßig Ecstacy, was Nvidia mit einem Rennhamster kontert etc usw.
Wer darauf wartet, das die ultimativ schnellste Karte rauskommt, der hat in 10 Jahren noch keine Neue!
Das worüber hier gestritten wird ist doch marginal! Die besten Karten von ATI und Nvidia sind schnell genug für alles was man jetzt und in den nächsten 1,5-2 JAhren softwaremäßig an sie verfüttern kann! und notfalls stopft man eine 2te KArte per SLI/Crossfire dazu.
Die Leistung von Grakas ist in den letzten Jahren so rasant gestiegen, das langsam weniger die Graka limitiert sondern eher die Werkzeuge zu erstellung der Modelle. Ein Modell mit ein paar hundert vertices ist relativ schnell gemacht, mit ner Textur überzogen und gut ist. Heute hat man das x-fache an Vertices und Texturen. Ich sage voraus, das die Grafiken in den nächsten Jahren wesentlich langsamer besser werden, weil extrem detailierte GRafiken zu teuer werden. Da müssen erst mal die modelling tools wieder aufschließen und viel mehr automatisieren. Fragt mal nach warum die Spielzeiten aktueller Games immer mehr in den Keller gehen und wo das storymäßig gesparte Geld hingeht.
Ailuros
2006-01-25, 09:38:57
Ja und nein svenw. Ich sehe immer noch genug Moeglichkeiten die Effizienz einer jeglichen Pipeline weiterhin zu steigern.
http://www.beyond3d.com/forum/showpost.php?p=429573&postcount=32
Ich wuerde sogar noch hinzufuegen dass Spiele dringend dual-threading fuer die dual core CPUs brauchen, weil CPUs es mehr und mehr schwerer haben mitzuhalten.
Ati hat im moment nvidia gepwned, und mich interessiert nur das hier und jetzt, wie es in paar monate aussieht juckt keine sau. Ok so wie es aussieht schon, die nv-fanboys, "mimimimi, der g71 wird besser, mimimimi" Kommt geht züruck in kindergarten, sowas ist ja erbärmlich mit anzusehen. Ich kann auch sagen "ja die nächste ati wird den g71 vernichten" aber bitte wo liegt der sinne so einer aussage ? Solche argumente bringt man nur wenn man verzweifelt ist und einem sonst nichts mehr einfallen. Ati hat ein super produkt abgeliefert was momentan die schnellste karte auf dem markt ist, anstelle sich zu freuen das ati konkurrenzfähig ist, wird auf biegen und brechen versucht die graka schlecht zu redenn. Wenn nv keine konkurrenz hätte , was meint ihr wie es wohl aussehen würde ? Dann wär die momentane topkarte ne 5900ultra für 750€ und nichts wär mit sli.
Ohne scheisse denkt mal für einen moment drüber nach was ihr hier sagt und fragt euch ob das nicht lächerlich klingt " JA der g71 wird die ati vernichten" gehts noch ? Man muss schon ein vollkommener moron sein um nicht zu wissen das ein produkt welches in den nächsten monaten auf den markt kommt besser ist als die derzeitig erhältlichen, oder glaubt ihr das die nächsten prozzis langsamer werden als die jetztigen ? Aber wenn einem nichts mehr einfällt :rolleyes:
Tigerchen
2006-01-25, 09:54:38
Dass ATi sehr lange Zeit technisch hinterherhang, hat mehr ausgemacht als du vielleicht glaubst. Schade, ich hätte es toll gefunden wenn ATI früher SM3 gehabt hätte, dann wären wir damit jetzt in Spielen schon viel weiter.
Nein. Spieleentwicklung dauert Jahre. Bis neue Effekte sich wirklich durchsetzen dauert es 3-4 Jahre. Nehmen wir Bump-mapping. Gibts schon ewig. Aber flächendeckend wird es erst 1,5 Jahre eingesetzt.
doom1
2006-01-25, 09:55:50
@ Gast und CO
Genau das meine ich das war vor dem 1900 von Seiten der ATI Leute genau so...die Schreibereien wie Deiner und alles was in die Richtung geht machen dies hier lächerlich das einzigste was Du und deines gleichen macht ist provozieren ihr merkt es nur nicht mehr bzw.ihr verpackt es mit schönen Sticheleien.
Ailuros
2006-01-25, 10:01:34
Nein. Spieleentwicklung dauert Jahre. Bis neue Effekte sich wirklich durchsetzen dauert es 3-4 Jahre. Nehmen wir Bump-mapping. Gibts schon ewig. Aber flächendeckend wird es erst 1,5 Jahre eingesetzt.
Wenn aber featureset X nicht von allen unterstuetzt wird, verzoegert es die Integration so oder so.
teilweis schade auf welchem niveau hier versucht wird zu argumentieren. es ist numal so, das ati die momentan schnellste karte hat, punkt ende aus. was Nvidia nachschiebt werden wir alle sehen! ich bin der meinung, die ati karte ist gut genug, um sie zu kaufen, zumal sie ja gleich verfügbar ist zu einem humanen preis(beim preis von der 7800 gtx 512 beschwert sich auch keiner) und mal ehrlich, wen stört der stromverbrauch? das war bis jetzt noch nie ein ko kriterium für irgendeine hardware(siehe dual gt von asus mit eigenem netzteil). das die nächste grakaversion die ältere übertrumpft ist ja wohl keine meisterleistung, wird bei cpus auch so gemacht. ich finde solche bewegung im markt nur gut für den user, denn wer will schon einen monopolisten? einige leute scheinen depressionen zu kriegen nur weil hardware xy schneller/besser ist----> geht mal vor die tür, da seht ihr die beste grafik ;) ich hatte auch beider herrsteller und war mit beiden meistens recht zufrieden, sage hier lieber nix zu den fehlern von karte xy, sonst gehts wieder vom neuen los. nun liegt es an nvidia ati zu übertrumpfen---> so dreht sich eben das technik karussell immer weiter und weiter und weiter.
MFG
Zino
DrFreaK666
2006-01-25, 10:23:04
Also ich weiss auch nicht was dass alle soll.
Der Thread heisst doch ganz klar: Sammelthread: ATI X1900 XT(X) Reviews und Diskussionen
Und nicht: ATI X1900 XT(X) Reviews und Blick in die Zukunft wie nvidia ATI vernichtet
Also Fanboys gehen mir echt auf den Keks.
Ist im Konsolen-Lager aber auch nicht anders.
ATI´s X1900XT ist eine sehr gute Karte mit der besten bisher möglichen Bildqualität.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.