Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche NV- Karte ist schneller als ATI1900XT?


Andreas12
2006-11-01, 11:12:05
habe da zur Zeit leider etwas den Überblick verloren.
Welche NVidia Karten sind denn alles schneller als eine
1900XT von ATI.
Wenn jetzt als Antwort kommt "hängt stark von der Anwendung ab"
heißt das wohl es gibt keine.
Ich suche was mit genügend Power für den neuen Microsoft FS X.

Läuft sli jetzt eigentlich auf dem P5W DH Deluxe ( Intel975er) ?

Ich danke Euch

l@mer
2006-11-01, 11:13:19
hmmhhhh, die 7900/50 GX2 ist schneller.

Gast
2006-11-01, 13:55:06
Wie mein Vorposter schon sagte, ist die 7900GX2 bzw. die 7950GX2 deutlich schneller als die x1900xt. Ein wenig schneller im Durchschnitt ist die 7900GTX.

Läuft sli jetzt eigentlich auf dem P5W DH Deluxe ( Intel975er) ?Nein, zumindest nicht mit offiziellen Treibern. Eine Ausnahme bildet die 7950GX2. Diese läuft auf jedem Chipsatz, der einen PCIe-16x-Slot hat.

Ronny G.
2006-11-01, 14:02:58
Ein wenig schneller im Durchschnitt ist die 7900GTX.


Hmm, mal schauen wann die ersten das wiederlegen. Ich sehe das zwar auch so, also das die GTX schon schneller ist, aber andere sehen das ganz anders, warum auch immer?

James Ryan
2006-11-01, 14:51:55
Bei gleicher Bildqualität ist die GTX nicht schneller als die X1900 XT.
Hatte beide Karten hier und kann das darum gut beurteilen. :P
Außerdem hat man selbst mit einer Gf 7950 GX2 nur winkelabhängiges AF und kein HDR+AA, daher kann man die aktuellen ATi und NVIDIA Karten nur schwer vergleichen.

MfG :cool:

Matrix316
2006-11-01, 14:54:13
Auch computerbase sagt 7900GTX (und höher, obwohl da nicht mehr viel ist ;)). http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/22/#abschnitt_performancerating_qualitaet

Gast
2006-11-01, 15:07:07
Naja wenn man sich anschaut, welche Treiberversionen genutzt werden, dürfte klar sein, das der Test nicht mehr ganz richtig sein sollte.

Andreas12
2006-11-01, 15:08:42
Mal rein hypothetisch, was würde ein Umstieg auf eine 7950 GX2 bringen?
Oder wäre das Unfug?

Snoopy69
2006-11-01, 15:15:40
Bei einer 7900GX2 musst du aber aufpassen, dass diese auch ins Case passt :lol:

@ Bexter

Sorry für die Bildklau :redface:

http://s3.bilder-hosting.de/img/VODIE.jpg

Andreas12
2006-11-01, 15:37:02
Um Gotteswillen! Was für Monster!

Snoopy69
2006-11-01, 15:44:58
Da ist sicher so Mancher erschrocken und enttäuscht gewesen, dass sie nicht reinpasste :D

sei laut
2006-11-01, 15:57:39
Mal rein hypothetisch, was würde ein Umstieg auf eine 7950 GX2 bringen?
Oder wäre das Unfug?

Kommt darauf an.. ich hab kurz mal eine Rechnung gemacht, du müsstest ca. 230€ hinlegen, wenn du deine alte verkäufst.
Wenn dir der kleine Perfomanceschub das wert ist, ists kein Unfug. Für mich wäre das aber deutlich zuviel. ;)
(die Rechnung stimmt aber nur ca. wegen fehlenden Angaben, die ich geraten hab)

Mr.Magic
2006-11-01, 15:58:28
Mal rein hypothetisch, was würde ein Umstieg auf eine 7950 GX2 bringen?
Oder wäre das Unfug?

Ich gehe mal davon aus, dass die Auflösung bei einem 32"er etwas höher ausfällt. Da würde sich die Karte m.E. durchaus lohnen.

ShadowXX
2006-11-01, 16:07:44
habe da zur Zeit leider etwas den Überblick verloren.
Welche NVidia Karten sind denn alles schneller als eine
1900XT von ATI.
Wenn jetzt als Antwort kommt "hängt stark von der Anwendung ab"
heißt das wohl es gibt keine.
Ich suche was mit genügend Power für den neuen Microsoft FS X.

Läuft sli jetzt eigentlich auf dem P5W DH Deluxe ( Intel975er) ?

Ich danke Euch
Als lohnender Umstig kommt für die wohl nur eine 8800GTX/GTS (aka G80) in frage. Wobei ich gehört habe, das der FSX eigentlich stärker an der CPU als an der Graka hängen soll.

Und wenn dann unbedingt einen GX2 sein soll, würde ich auf den Launch des G80 warten (ist am 08.11.)....dann sollte der Preis noch etwas fallen.

TobiWahnKenobi
2006-11-01, 16:19:04
ich hatte auch beide: 19XTX und 79GTX. hab' mich dauerhaft für erstere entschieden.

vergleichbar sind sie nicht, weil die optik bei NV grützig ist. die ati reicht mir in tes4 und gothic3 noch gerade so für 1920x1200 pixel mit AA, HDRr bzw. all eyecandy on.


(..)

mfg
tobi

4711
2006-11-01, 16:51:21
alles was da über mir steht ignorieren,ist so wie so nur gehetzte.ich kanns zwar nicht lesen,kann es mir aber denken :biggrin:

Zum Thema
Ich bin von einer XTX auf eine GX² umgestiegen..das sehe auf ner Rennstrecke so aus,das die ATI<Käfer versucht die GX²<Porsche zu überholen.
Bildqualli gibt es absolut keinen Unterschied!
Ich hätte die NV sofort wieder gegen eine ATI eingetauscht wenn mir da was negatives aufgefallen wäre...und nein ich will keine Videos sehen!
HDR+AA laß ich mal außen vor (würde mir auch wieder abgehen wenn ich noch ein Game hätte das dies zur Verfügung stellt).
Hat sich mit dem G80 sowieso erledigt und wir können ja Wetten abschliesen das man bei NV weder einen Gucki noch sonst irgendwelche Klimmzüge veranstalten muß,um HDR+AA spielen zu können.

Palpatin
2006-11-01, 17:26:15
Ich hatte ne 7950 gt 512 @ gtx und hab nun ne 1900XT die einzigen Spiele die bei mir bisher nicht in 1680 perfekt laufen sind EQ 2 Oblivion und Gothic 3 und zummindest die zu letzt genannten laufen mit der ATI deutlich besser da geht nicht nur um paar %, an bestimmten stellen sinds bei Oblivion 50-100%. Mittlerweile ist ATI auch in OpenGl schneller. Min Frame Wert Prey mit NV war 25 (vsync on) bei 1680 2AA HQ 16AF. Bei ATI gings nie unter 30 (vsync on) auch 1680 2AA 16HQ AF AI standart. Das die GX 2 schneller als ne XT ist ist klar.

Mr.Magic
2006-11-01, 18:02:15
Palpatin,

warum versuchst Du hier die 1900XT zu pimpen? Die hat er schon, und sie ist ihm offensichtlich nicht schnell genug. lesen, denken, posten

Andreas12
2006-11-01, 18:07:56
erst mal danke für eure Beiträge.

vielleicht sollte ich noch warten.
wann wird es denn die 8800GTS im Handel geben, wird das noch länger dauern?

sei laut
2006-11-01, 18:08:48
Palpatin,

warum versuchst Du hier die 1900XT zu pimpen? Die hat er schon, und sie ist ihm offensichtlich nicht schnell genug. lesen, denken, posten

Er darf den Threadstarter aber von einem Fehlkauf abraten. Bei den Fanboys hier im Forum kann manchmal schnell ein falscher Eindruck für Unwissende entstehen, daher finde ich gut, dass er postet. ;)

MikBach
2006-11-01, 18:11:32
alles was da über mir steht ignorieren,ist so wie so nur gehetzte.ich kanns zwar nicht lesen,kann es mir aber denken :biggrin:
Megalol.

Zum Thema
Ich bin von einer XTX auf eine GX² umgestiegen..das sehe auf ner Rennstrecke so aus,das die ATI<Käfer versucht die GX²<Porsche zu überholen.
Bildqualli gibt es absolut keinen Unterschied!
Ich hätte die NV sofort wieder gegen eine ATI eingetauscht wenn mir da was negatives aufgefallen wäre...und nein ich will keine Videos sehen!
Selten so ein Mist gelesen.

Natürlich ist die BQ bei der ATI besser.
Dies kann man sogar mit Screens belegen, Videos sind natürlich besser.

Nur ein Maulwurf dürfte deine (falsche) Einschätzung teilen. :P

Mr.Magic
2006-11-01, 18:16:36
seiLaut,

da er am Ende selbst darauf hinweist, dass die GX2 schneller ist, ist der Rest einfach nur hier vollkommen belangloses blahblah.

@Andreas12

Die 8800 soll bald erscheinen, ob sich das lohnt würde ich aber mindestens drei (voneinander unabhängige) Tests abwarten, um zu sehen was sie unter D3D9 tatsächlich besser kann (als die GX2).

Gast
2006-11-01, 18:38:33
Je neuer das Spiel und je höher die Rechenlast desto flotter sind die Ati Grakas.

http://666kb.com/i/aivl7xttf9jfseng6.png

http://666kb.com/i/aivl841ii79lc135i.png

http://666kb.com/i/aivl89eq19fr4xu0m.png

http://666kb.com/i/aivl8i3ahfpvaapme.png

http://666kb.com/i/aivkwvnk1cqdt5gza.png

Gast
2006-11-01, 18:42:35
Da pickt sich aber einer die Rosinen aus um ATI möglichst gut da stehen zu lassen. ;)

Am besten mal das ganze Review auf Computerbase lesen und nicht nur die paar Benchmarks, die der Gast vor mir da rausgesucht hat.

TobiWahnKenobi
2006-11-01, 19:13:43
Da pickt sich aber einer die Rosinen aus um ATI möglichst gut da stehen zu lassen.

Am besten mal das ganze Review auf Computerbase lesen und nicht nur die paar Benchmarks, die der Gast vor mir da rausgesucht hat.

ähm.. was sind denn an dem rating unter 2560x1600, 4xAA/16xAF bitteschön rosinen? das ist exakt das, was ich von so einem test wissen möchte, falls ich mal etwas von einem test wissen will ;)

und 4711 könnte sich mal ein bisschen bedeckt halten! wenn er schon das stichwort rennstrecke liefert, dann soll er mal einen sinnvollen satz um dieses stichwort bauen. etwa: "immer wenn ich die rennstrecken auf NV karten sehe, wird mir schlecht..". zuletzt passiert mit gefrosch6+7 in GT-Legends ;)


(..)

mfg
tobi

4711
2006-11-01, 19:19:03
Megalol.

Selten so ein Mist gelesen.

Natürlich ist die BQ bei der ATI besser.
Dies kann man sogar mit Screens belegen, Videos sind natürlich besser.

Nur ein Maulwurf dürfte deine (falsche) Einschätzung teilen. :P

ömmmm
1. als normal denkender Mensch erkenne ich das es dem Herrn 4711 vollkommen wurscht ist was er für eine Karte im Rechner hat!
2.kann er sich das mal locker leisten und zwar den Kauf einer anderen Karte wenn ihm was nicht paßt!
3. ohne in ein anderes Unterforum zu gehen und andauernd dummes Zeug zu quatschen!
und 4..
LOL!? (ich mag das Wort eigendlich garnicht..seid dem ich das mal in der Straßenbahn in einem Gespräch zweier Jugendlichen gehört habe...)dich zähl ich auch dazu)...zum LOL..ihr seid LOL ihr macht hier jeden Thread kaputt!
und 5.
Verstehe ich nicht wieso dagegen nichts unternommen wird?
und 6.
wenn ich oder zb. Razor das einmal im ATI Forum abziehen würde,könnte ich Wetten das darauf mindestens eine Verwarnung folgen würde.

StefanV
2006-11-01, 19:21:28
habe da zur Zeit leider etwas den Überblick verloren.
Welche NVidia Karten sind denn alles schneller als eine
1900XT von ATI.
Wenn jetzt als Antwort kommt "hängt stark von der Anwendung ab"
heißt das wohl es gibt keine.
Ich suche was mit genügend Power für den neuen Microsoft FS X.

Läuft sli jetzt eigentlich auf dem P5W DH Deluxe ( Intel975er) ?

Ich danke Euch
1. Geforce 8800GTS/X wirds sein, alle anderen nicht unbedingt.
2. Es hängt auch stark von der Anwendung ab, teilweise sind die ATis sowas von überlegen wie z.B. in Oblivion...
3. Da musst wohl auf R600 warten.

4. Nein, nicht mit offiziellen Treibern, da läuft nur 'Master' Crossfire drauf (also 2 ATis)

Ronny G.
2006-11-01, 20:57:06
In den Benchausschnitten ist aber keine X1900XT vertreten, oder irre ich mich?;)
Es sollte vielleicht auch geklärt werden ob nun die 256er oder 512er Version? Die 512 gibts ja nun nicht mehr, also hat sich die X1900XT schon wieder im Vergleich erledigt, oder sehe ich das falsch?
Dazu sollte auch gesagt sein, das eine 7900GTX totaler Geldrausschmiss ist, die GTO machts auch für wesentlich weniger Geld.

Hat den keiner hier ein halbwegs identisches System nur eben mit der X1900XT, dann könnten wir mal unter Reallife vergleichen:biggrin:

The_Invisible
2006-11-01, 21:52:37
und 4711 könnte sich mal ein bisschen bedeckt halten! wenn er schon das stichwort rennstrecke liefert, dann soll er mal einen sinnvollen satz um dieses stichwort bauen. etwa: "immer wenn ich die rennstrecken auf NV karten sehe, wird mir schlecht..". zuletzt passiert mit gefrosch6+7 in GT-Legends ;)

wennst mit dem schei* nicht gleich aufhörst muss ich screenshots liefern...

edit:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4354781&postcount=627

und jetzt bin ich neugierig was auf ner ati so besser ausschaut

mfg

Gast
2006-11-01, 22:56:22
wennst mit dem schei* nicht gleich aufhörst muss ich screenshots liefern...

edit:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4354781&postcount=627

und jetzt bin ich neugierig was auf ner ati so besser ausschaut

mfg

läuft gtr2 auch mit den settings?

Angiesan
2006-11-02, 00:17:34
Also ich bin von einer X1900XT512 @XTX auf eine 7900GTO @GTX umgestiegen und habe es bis jetzt nicht bedauert.
Das Treibergemurkse von ATi war, ist für mich der Grund.

Kleine Beispiele gefällig?

Bei Titan Quest ab cat. 6.8 kein HQ AF mehr über den Treiber bei mir einstellbar ebenso bei Fear und G3, ja Leute mal nicht nur den Hacken machen auch mal hinschauen.

Bildschirm nicht zuverlässig auf 16:10 einzustellen.

Das Flimmern der ATi auf Ai low sehen hier auch die wenigsten, hängt aber auch sehr vom spiel ab.
Ebenso der mit dem Umstellen auf Ai off verbunden Geschwindigkeitsverlust, zb. Fear 0,00 FPS, bei G3 gehen mal locker flockig 10FPS verloren was ja ca 25-30% entsprechen dürfte.

Das wie nennt man das?--Shaderaliasing ist bei den Ati Karten @ Ai low bei einigen Stellen in diversen spielen sehr stark. Da kann nv locker mit Qualität eine bessere IQ darstellen. Das sichrlich leicht vorhanden flimmern der NV bei AF ist dagegen aber für mich das kleiner Übel.
Ich könnte jetzt noch ein paar Beispiele hier aufführen aber es würde eh nichts bringen.:mad:

Das Ati meines Erachtens die bessere HW hat ist nicht die Frage, aber was machen die Spinner draus.Dies bezieht sich aber nur auf die Technik nicht auf die Mechanik Der Standardlüfter ist getrost als e-Schrott zu bezeichnen und wem das nicht so geht der braucht Gott auch nicht zu danken das er 2 Ohren hat.:umassa:

Und die jenigen die glauben sie könnten zukünftige BB mit Ihrer x1900 was auch immer mit vollen Details mit HDRR und AA zoggen , den drücke ich die Daumen. denn das geht bei Oblivion schon nicht immer mit spielbaren FPS zumindest für mein Gefühl.

Also was bleibt? Wie immer eine reine Geschmackssache und jeder sieht die Vorteile und Nachteile mit anderen Augen.

Das aber immer die gleichen Leute hier Ihre Meinung versuchen zu verallgemeinern geht mir persönlich schon sehr auf den Sa.. und eine objektive Kaufberatung oder Hilfestellung ist durch die unmögliche Argumentation dieser Teilnehmer in diesem Forum einfach nicht mehr möglich.:uhammer:

Mußte jetzt einfach mal raus.:biggrin:

Grüße

tokugawa
2006-11-02, 01:06:51
Wie oft soll in diesem Forum noch NVIDIA versus ATI durchgekaut werden?

Dass bei ATI trotz aller Vorteile nicht nur Eitel-Sonnenschein ist, und bei NVIDIA trotz der Dinge die GeForces gegenüber ATI nicht können, nicht alles schlecht ist, dürfte klar sein, trotzdem muß ich hier so komplett einseitige Attribute wie "grützig" oder irgendwas über "Rennstrecken" lesen.


Ich habe jedenfalls auch eine X1900 XT und brauche jetzt unbedingt für den anderen Rechner eine GeForce (derzeit eine X1600 Pro)... als Entwickler fallen mir immer mehr Unzulänglichkeiten der ATI auf. Als Gamer ist die X1900 natürlich sehr gut.

TobiWahnKenobi
2006-11-02, 07:59:26
wennst mit dem schei* nicht gleich aufhörst muss ich screenshots liefern...
was willste denn liefern? 8xS oder 16xS -shots mit unterirdischen frameraten oder kommt gleich tuxracer-deluxe als beispiel für die linuxtauglichkeit deiner 79GTX..?

Zitat von The_Invisible

wennst mit dem schei* nicht gleich aufhörst muss ich screenshots liefern...

edit:
http://www.forum-3dcenter.org/vbulle...&postcount=627

und jetzt bin ich neugierig was auf ner ati so besser ausschaut

mfg

läuft gtr2 auch mit den settings?

also bei GTL war @8xS der arsch ab. 16xS wäre zwar über nhancer eingestellt sicher schöner gewesen, aber auch noch nutzloser in bezug auf verbeibene frames.
zu GTL habe ich noch irgendwo videos rumkaspern (6xAAA vs. 8xS) - werde die mal suchen, wenn ich heute abend heim komme.

Bildschirm nicht zuverlässig auf 16:10 einzustellen.

erklär' mal genauer.. das funzt hier (hoch bis 1920x1200p) absolut "zuverlässig".

Ich habe jedenfalls auch eine X1900 XT und brauche jetzt unbedingt für den anderen Rechner eine GeForce (derzeit eine X1600 Pro)... als Entwickler fallen
mir immer mehr Unzulänglichkeiten der ATI auf. Als Gamer ist die X1900 natürlich sehr gut.

das ist die beste lösung. mache ich auch so u. kenne viele die das so machen (beides kaufen und zwei rechner betreiben).


(..)

mfg
tobi

Gast
2006-11-02, 12:54:53
Als Gamer ist die X1900 natürlich sehr gut.

Aber nur solange man sich auf die Top10 der aktuellsten Spiele beschränkt, bei anderen Spielen merkt man auch die Unzulänglichkeiten der ATI Treiber.

Gast
2006-11-02, 14:17:23
Bei Titan Quest ab cat. 6.8 kein HQ AF mehr über den Treiber bei mir einstellbar ebenso bei Fear und G3, ja Leute mal nicht nur den Hacken machen auch mal hinschauen.

Sag mir, dass das ein Scherz war! Du ärgerst dich, dass in Titan Quest mit einem bestimmten Treiber kein HQ-AF mehr einstellbar ist und wechselst dann zu einer Karte, die erst gar keinen vergleichbaren Modus anbietet?

Ich brech zusammen :D

ShadowXX
2006-11-02, 14:35:16
erklär' mal genauer.. das funzt hier (hoch bis 1920x1200p) absolut "zuverlässig".

Bei mir ebenfalls.....ich weiß wirklich nicht wo es da Probleme geben sollte.

Und bei mir funktioniert auch HQAF mit Treibern > 6.7 bei Titan Quest, Fear & Co.

The_Invisible
2006-11-02, 14:38:59
läuft gtr2 auch mit den settings?

nö, nur in 1680/8xs, schaut aber auch sehr gut aus mit SPIELBAREN fps

mfg

AnarchX
2006-11-02, 22:52:28
Die CB-Werte in 2560x1600 4xAA/16xAF der X19x0XTX scheinen wohl nicht ganz korrekt zu sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=330382
:wink:

MikBach
2006-11-03, 09:32:07
ömmmm
1. als normal denkender Mensch erkenne ich das es dem Herrn 4711 vollkommen wurscht ist was er für eine Karte im Rechner hat!
2.kann er sich das mal locker leisten und zwar den Kauf einer anderen Karte wenn ihm was nicht paßt!
3. ohne in ein anderes Unterforum zu gehen und andauernd dummes Zeug zu quatschen!
und 4..
LOL!? (ich mag das Wort eigendlich garnicht..seid dem ich das mal in der Straßenbahn in einem Gespräch zweier Jugendlichen gehört habe...)dich zähl ich auch dazu)...zum LOL..ihr seid LOL ihr macht hier jeden Thread kaputt!
und 5.
Verstehe ich nicht wieso dagegen nichts unternommen wird?
und 6.
wenn ich oder zb. Razor das einmal im ATI Forum abziehen würde,könnte ich Wetten das darauf mindestens eine Verwarnung folgen würde.
Sorry, aber du scheinst ein mittelschweres Problem zu haben.
Man behauptet zurecht, dass ATI eine bessere BQ bietet, was man auch nachweisen kann, vor allem das HQ-AF.

Dann willst du keine Beweise und beharrst auf deiner falschen Aussage.

Sag mal, geht´s noch?

MikBach
2006-11-03, 09:40:48
Aber nur solange man sich auf die Top10 der aktuellsten Spiele beschränkt, bei anderen Spielen merkt man auch die Unzulänglichkeiten der ATI Treiber.
Quatsch mit Sosse.

Ich habe seit vorgestern eine X1950PRO. Habe mir am Mittwoch und Donnerstag frei genommen, damit ich testen kann.
Gar keine Probleme gehabt. Und ich habe auch Spiele abseits des Mainstreams und auch ältere Spiele getestet.

Mag sein, dass wenn man sich nicht so gut auskennt oder 2 linke Hände am PC hat, es zu Problemen kommen kann.
Dies aber auf ATI oder NV zu schieben finde ich dann doch schon eine Frechheit.
Das einzige, was ich beanstande ist das müllige CCC.

Es wird immer kleine Unzulänglichkeiten geben, das betrifft aber ATI und NV.
Hab das ja mit meiner 6800GT erlebt.
Besonders die Performance war bei neuen Spielen teilweise grottig.
Erst mit den nächsten Treiberreleases war die Performance so, wie ich es erwartet hätte.

Gruß M_B

Gast
2006-11-03, 09:43:45
Die CB-Werte in 2560x1600 4xAA/16xAF der X19x0XTX scheinen wohl nicht ganz korrekt zu sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=330382
:wink:

Das Problem tritt angeblich nur bei der X1950XTX auf . Bei Computerbase ist die X1900XTX aber auch so flott.

AnarchX
2006-11-03, 10:01:06
Das Problem tritt angeblich nur bei der X1950XTX auf . Bei Computerbase ist die X1900XTX aber auch so flott.

Das wird wohl nun erstmal alle noch überprüft werden müssen, bis dahin sollte man halt die Werte etwas mit Vorsicht genießen.

Gast
2006-11-03, 10:08:48
Die CB-Werte in 2560x1600 4xAA/16xAF der X19x0XTX scheinen wohl nicht ganz korrekt zu sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=330382
:wink:Jap, die Werte der x1950xtx waren auch viel zu hoch im Vergleich zu den NV-Karten. Jetzt wissen wir wenigstens warum.

SentinelBorg
2006-11-03, 21:01:30
Die ganze Diskussion ist doch langsam wayne. In 5 Tagen kommt die G80 und dann gibts eine Karte die eigentlich alle existierenden Pros der heutigen ATIs und Nvidias vereint und das ganze mit der Leistung einer GX2+.

Sentinel

StefanV
2006-11-03, 21:57:32
Nur kostet eine X1900XT dann immer noch ~250-300€ und die 8800, wenn sie denn verfügbar ist, kostet um die 500€, minimum :rolleyes:

MikBach
2006-11-06, 09:37:14
Die ganze Diskussion ist doch langsam wayne. In 5 Tagen kommt die G80 und dann gibts eine Karte die eigentlich alle existierenden Pros der heutigen ATIs und Nvidias vereint und das ganze mit der Leistung einer GX2+.

Sentinel
Nicht jeder ist bereit 500 Euro in eine Grafikkarte zu investieren.

Bis 500 Euro hat NV gegen die ATIs nichts entgegenzusetzen.
Die NV-Karten sind technologisch veraltet und bieten dabei noch die schlechtere BQ.

Wenn NV nicht drastisch die Preise senkt, dann sehe ich schwarz für NV. Zumindest bis die Mainstream-Ableger des G80 kommen.

Gruß M_B

The_Invisible
2006-11-06, 11:15:58
Nicht jeder ist bereit 500 Euro in eine Grafikkarte zu investieren.

Bis 500 Euro hat NV gegen die ATIs nichts entgegenzusetzen.
Die NV-Karten sind technologisch veraltet und bieten dabei noch die schlechtere BQ.

Wenn NV nicht drastisch die Preise senkt, dann sehe ich schwarz für NV. Zumindest bis die Mainstream-Ableger des G80 kommen.

Gruß M_B

junge, red nicht immer so einen mist sonst vergeht mir noch das mittagessen...

die nächsten 3 monate werden alles andere als rosig für ati

mfg

MikBach
2006-11-06, 11:28:27
junge, red nicht immer so einen mist sonst vergeht mir noch das mittagessen...
Was genau meinst du mit Mist?
Ein wenig konkreter wäre schon nett, dann wüsste ich auch, was ich angeblich falsch geschrieben haben sollte.

die nächsten 3 monate werden alles andere als rosig für ati

mfg
Wieso das denn?

Hast du irgendwelche geheime Infos?
Zur Zeit ist ATI imo sehr gut aufgestellt.

Gruß M_B

Coda
2006-11-06, 11:33:48
Bis 500 Euro hat NV gegen die ATIs nichts entgegenzusetzen.

G80 GTS kostet weniger als 500€.

MikBach
2006-11-06, 11:36:56
G80 GTS kostet weniger als 500€.
Zur Zeit kostet sie gar nichts, da nicht verfügbar...:wink:

Gruß M_B

AnarchX
2006-11-06, 11:40:33
Zur Zeit ist ATI imo sehr gut aufgestellt.

Wo denn ausserhalb der Bildqualitätsfeatures, die imo doch den Großteil der Käuferschaft (leider) nicht wirklich interessiert?
Auf der wirtschaftliche Seite sieht es für ATI doch sehr mau aus, wenn man sich anschaut, dass man einen 330Mio Trans. Chip im unteren Mainstream gegen den bedeutend günstigeren G73-B1 ansetzen muss.

MikBach
2006-11-06, 11:43:09
Wo denn ausserhalb der Bildqualitätsfeatures, die imo doch den Großteil der Käuferschaft (leider) nicht wirklich interessiert?
Auf der wirtschaftliche Seite sieht es für ATI doch sehr mau aus, wenn man sich anschaut, dass man einen 330Mio Trans. Chip im unteren Mainstream gegen den bedeutend günstigeren G73-B1 ansetzen muss.
Ich meinte jetzt nicht die wirtschaftliche Sicht, sondern die Produkte.
Also aus der Sicht eines Gamers.

Gruß M_B

Frank1974
2006-11-06, 12:07:21
Man Leute immer wieder diese Kindischen Anfeindungen, jeder kauft ds was er für richtig hält und nicht was andere ihm einreden wollen, ob NV oder ATI, beide Firmen zocken uns nur ab, alle 3-4 Monate gibts neues Futter für die Freaks, aber die Games halten sie Künstlich unten, indem sie absichtlich durch neue Treiber gebremst werden, grenzt schon fast an Betrug das ganze.
Auf Konsolen werden die Spiele so Optimiert das sie die beste Leistung bringen, auf dem PC werden sie Künstlich gedrosselt, eine 1900XT oder 7900GTX haben gar nicht die Möglichkeit, sich zu entfalten, 3 Monate Später kommt was neues und fertig, ich finde das ich damit Recht habe, aus Wirtschaftlicher Sicht verstehe ich es sogar, aber aus meiner Menschlichen Gamer Sicht ist es einfach nur unverschämt.

mfg
Frank

TobiWahnKenobi
2006-11-06, 12:50:37
oh hilfe echt.. jetzt werden noch nicht erschienene grafikchips des kommenden highends, spekulierte wirtschaftliche aspekte und kleingeredete BQ-vorteile eingebaut..

hammer echt - das sind doch mal treue fans.

was hat ein spieler davon? richtig - nichts.. aber macht ruhig weiter..

aber wenn wir eh beim glaskugel-deuten sind.. ich wette, der R600 wird das einhalten, was sich die fangemeinde atm vom G80 verspricht.. wäre ja nicht das erste mal, dass NV irgendwas auf den markt schmeißt, das der andere IHV dann etwas später nutzbarer anbietet.

über die wirklichen defizite eine G80, die man erst merkt, wenn man mal unter vista ein direct3D10-game spielen will, mag ich gar nicht spekulieren.. das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht.


(..)

mfg
tobi

The_Invisible
2006-11-06, 13:01:21
oh hilfe echt.. jetzt werden noch nicht erschienene grafikchips des kommenden highends, spekulierte wirtschaftliche aspekte und kleingeredete BQ-vorteile eingebaut..

hammer echt - das sind doch mal treue fans.

was hat ein spieler davon? richtig - nichts.. aber macht ruhig weiter..

aber wenn wir eh beim glaskugel-deuten sind.. ich wette, der R600 wird das einhalten, was sich die fangemeinde atm vom G80 verspricht.. wäre ja nicht das erste mal, dass NV irgendwas auf den markt schmeißt, das der andere IHV dann etwas später nutzbarer anbietet.

über die wirklichen defizite eine G80, die man erst merkt, wenn man mal unter vista ein direct3D10-game spielen will, mag ich gar nicht spekulieren.. das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht.


(..)

mfg
tobi

das hier ist nicht das speku forum, über den g80 ist schon sehr viel bekannt, über den r600 so gut wie nichts, näheres im entsprechenden forum

das was bis jetzt vom g80 zu sehen war müsste vor allem dir als bq fetischist gefallen, oder ist das jetzt nicht mehr wichtig?

mfg

TobiWahnKenobi
2006-11-06, 13:21:58
wichtig ist für meinen privat-rechner, dass ich nur karten einbaue, die mir nicht den anschluß von SATA-HDDs verwehren. das scheint bei der kommenden GTX schonmal nicht gegeben zu sein. ich verzichte schon bei üblicher 23cm baulänge auf einen SATA-anschluß.

ansonsten bin ich zuversichtlich, dass ich die karten in der redaktion noch rechtzeitig zu gesicht bekommen werde, um mich zu entscheiden, für was ich mein weihnachtsgeld raushaue. im prinzip würde es ja auch für beides (R600+G80) reichen.. oder für zwei G80.. oder für nen urlaub.. mal sehen.

NV hat für mich seit längerem einen faden beigeschmack. bisher war jede blumig angepriesene innovation unterm strich und hinterher nur marketing-geblubber.. und dass man eine NV karte gern haben möchte, sollen die eckdaten ja bewirken.. auch das kenne ich schon seit 10 jahren (oder länger)..

nein, ich teile keinerlei euphorie - früher oder später habe ich es eh im system bzw. irgendwann demnächst ist das eh wieder schnee von gestern.


(..)

mfg
tobi

MikBach
2006-11-06, 13:48:41
hammer echt - das sind doch mal treue fans.
Da sagst du aber was...:rolleyes:
Ich habe manchmal das Gefühl, dass einige hier im Forum von Nvidia gesponsort werden, wie auch immer...

Ist halt sehr auffällig, wenn Leute jahrelang nur eine Marke empfehlen, auch wenn das Produkt dem Konkurrenten unterlegen ist.

aber wenn wir eh beim glaskugel-deuten sind.. ich wette, der R600 wird das einhalten, was sich die fangemeinde atm vom G80 verspricht.. wäre ja nicht das erste mal, dass NV irgendwas auf den markt schmeißt, das der andere IHV dann etwas später nutzbarer anbietet.

über die wirklichen defizite eine G80, die man erst merkt, wenn man mal unter vista ein direct3D10-game spielen will, mag ich gar nicht spekulieren.. das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht.


(..)

mfg
tobi
Ich denke so eine Schlappe wie mit der FX-Serie wird sich Nvidia nicht mehr leisten.
Der G80 scheint ganz ok zu sein.

Gruß M_B

master_blaster
2006-11-06, 14:08:54
Na super; ich ess' grad', Leute! Schmeisst die ATI Fanboys raus! Sonst fällt mir wieder alles aus dem Schnabel.


NV hat für mich seit längerem einen faden beigeschmack. bisher war jede blumig angepriesene innovation unterm strich und hinterher nur marketing-geblubber.. und dass man eine NV karte gern haben möchte, sollen die eckdaten ja bewirken.. auch das kenne ich schon seit 10 jahren (oder länger)..
Was ist mit Technologien wie Ultrashadow?! Bring Leistung und wurde deswegen von ATI kopiert.
Shader Modell 3: Vereinfacht Programmierung von komplexen shadern und Mappingverfahren.

nein, ich teile keinerlei euphorie - früher oder später habe ich es eh im system bzw. irgendwann demnächst ist das eh wieder schnee von gestern.
Für mich ist Vorfreude noch immer die schönste Freude, abgesehen von der Schadenfreude. :wink:

über die wirklichen defizite eine G80, die man erst merkt, wenn man mal unter vista ein direct3D10-game spielen will, mag ich gar nicht spekulieren.. das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht.
Dann lass das Spekulieren doch oder verschiebs wenigstens ins ATI Forum. Warum müssen sich die armen nVidia Jünger sowas eigentlich bieten lassen!? Macht ja auch keiner im ATI Forum und wenn doch, scheisst man ihn direkt zusammen.

Ich habe manchmal das Gefühl, dass einige hier im Forum von Nvidia gesponsort werden, wie auch immer...
Nein, das Forum wird von NV gesponsort, heisst schließlich auch nVidia Forum:wink:

MikBach
2006-11-06, 14:21:20
Na super; ich ess' grad', Leute! Schmeisst die ATI Fanboys raus! Sonst fällt mir wieder alles aus dem Schnabel.
Diese wären? :confused:


Was ist mit Technologien wie Ultrashadow?! Bring Leistung und wurde deswegen von ATI kopiert.
Was?
Entweder du verwechlst etwas oder ich.
Wegen Ultrashadow haben wir in einigen Spielen verpixelte Schatten und ATI hat kein Ultrashadow.


Shader Modell 3: Vereinfacht Programmierung von komplexen shadern und Mappingverfahren.
:confused:
Und was wolltest du uns damit sagen?


Dann lass das Spekulieren doch oder verschiebs wenigstens ins ATI Forum. Warum müssen sich die armen nVidia Jünger sowas eigentlich bieten lassen!?
Hä?
Die armen nVidia Jünger?
Geht´s noch?

In diesem Thread geht es auch um ATI (siehe Threadtitel).

Macht ja auch keiner im ATI Forum und wenn doch, scheisst man ihn direkt zusammen.
Mit guten Argumenten hat sicherlich niemand etwas gegen.

Nein, das Forum wird von NV gesponsort, heisst schließlich auch nVidia Forum:wink:
Hehe...:wink:

Gruß M_B

Gummikuh
2006-11-06, 14:47:40
Man Leute immer wieder diese Kindischen Anfeindungen, jeder kauft ds was er für richtig hält und nicht was andere ihm einreden wollen, ob NV oder ATI, beide Firmen zocken uns nur ab, alle 3-4 Monate gibts neues Futter für die Freaks, aber die Games halten sie Künstlich unten, indem sie absichtlich durch neue Treiber gebremst werden, grenzt schon fast an Betrug das ganze.


Nun ja mit den Anfeindungen und dem Kaufen und der Abzocke...da kann man net drann rütteln.

Aber was die Treiber und Spiele angeht.In letzter Zeit sind die Anforderungen seitens der Spieleentwickler etwas heftiger gestiegen.Desweiteren ist es auch net so einfach alles perfekt zu optimieren...PCs sind eben sehr unterschiedlich.

Und Optimierungen seitens NV oder ATI im Treiber sind ja auch keine Seltenheit (Shaderreplacement).

Und was die Bildqualität angeht...bei NV gibt es eben noch kein fast winkelunabhängiges AF...aber das fast wird von vielen irgendwie wegrationalisiert (bei den ATI Karten momentan), so ne Art Titanic Syndrom (da wurde ja auch aus schwer sinkbar - unsinkbar).

MikBach
2006-11-06, 15:02:17
Und was die Bildqualität angeht...bei NV gibt es eben noch kein fast winkelabhängiges AF...
Kleine Korrektur. :)
Müsste eigentlich winkelunabhängiges heißen.

Gruß M_B

Gummikuh
2006-11-06, 15:04:28
Uuups...ja...natürlich :biggrin:

master_blaster
2006-11-06, 18:20:26
Diese wären?
Alle, die 'ne ATI Karte empfehlen, ohne Argumente anzuführen und nur auf den 3Tausend700Millardenund589Mal durchgehakten, gleichen Nachteilen von nVidia Karten rumhacken, denn irgendwann interessierts keine Sau mehr und 's wird langweilig!

Was?
Entweder du verwechlst etwas oder ich.
Wegen Ultrashadow haben wir in einigen Spielen verpixelte Schatten und ATI hat kein Ultrashadow.
Verpixelte Schatten? Hab' ich nicht. Aber ich meine mich noch an einen Thread erinnern zu können, (bei forumdeluxx), wo es um ein UltraShadow imitat von ATI gin... Ich glaub', das nehm' ich mal schnell wieder zurück, kann es nämlich nicht belegen :redface:


Und was wolltest du uns damit sagen?
Guck mal einen Post drunter...
NV hat für mich seit längerem einen faden beigeschmack. bisher war jede blumig angepriesene innovation unterm strich und hinterher nur marketing-geblubber.. und dass man eine NV karte gern haben möchte, sollen die eckdaten ja bewirken.. auch das kenne ich schon seit 10 jahren (oder länger)..

Mit guten Argumenten hat sicherlich niemand etwas gegen.
s.o. Ist immer nur das Gleiche.

TobiWahnKenobi
2006-11-06, 18:26:20
@die gina

es zwingt dich keiner, etwas zu lesen, was du schon kennst oder was dich nicht interessiert. die meisten hier sind dort, wo du grad rumstolperst, schon gewesen.


(..)

mfg
tobi

Gast
2006-11-06, 18:28:27
N
Bis 500 Euro hat NV gegen die ATIs nichts entgegenzusetzen.
Die NV-Karten sind technologisch veraltet und bieten dabei noch die schlechtere BQ.
Außer Flames hast du nichts beizutragen oder Mr. Viral Marketing?

http://www.geizhals.at/deutschland/a224910.html

8800 GTS - steckt auch noch jede Ati-Karte in die Tasche, es sei denn Ati launcht bis zum 8.11. noch schnell den R600.

Ich weiß, was jetzt kommt: Bis 431 Euro hat Nvidia Ati nichts entgegenzusetzen.... ;D


Q

Gast
2006-11-06, 18:30:19
über die wirklichen defizite eine G80, die man erst merkt, wenn man mal unter vista ein direct3D10-game spielen will, mag ich gar nicht spekulieren.. das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht.

Da du aus der c't so gut informiert bist: Kläre uns doch bitte auf. Was wäre das, was auf dem G80 besch... und auf dem R600 supi läuft? Dann kann ich meinen Kauf noch verschieben.

Gast
2006-11-06, 18:32:10
Wegen Ultrashadow haben wir in einigen Spielen verpixelte Schatten und ATI hat kein Ultrashadow.
Kannst du das bitte näher erklären? Warum ist Ultrashadow ursächlich Schuld an verpixelten Schatten?


Q

(das drüber war ich auch)

TobiWahnKenobi
2006-11-06, 18:36:13
Da du aus der c't so gut informiert bist: Kläre uns doch bitte auf. Was wäre das, was auf dem G80 besch... und auf dem R600 supi läuft? Dann kann ich meinen Kauf noch verschieben.

ich warte genau wie ihr. nur hab' ich eine andere erwartungshaltung, als noch vor 3, 5 oder 10 jahren. eben weil ich es eh sehen werde.. wie ihr auch. dass es wieder etwas geben wird, das anlaß zur kritik liefert, ist nichts als spekulation. es war ja noch nie anders mit denen..


(..)

mfg
tobi

Gast
2006-11-06, 18:42:25
ich warte genau wie ihr. nur hab' ich eine andere erwartungshaltung, als noch vor 3, 5 oder 10 jahren. eben weil ich es eh sehen werden.. wie ihr auch. dass es wieder etwas geben wird, das anlaß zur kritik liefert, ist nichts als spekulation. es war ja noch nie anders mit denen..


(..)

mfg
tobi

Das klang oben aber noch ganz anders:
"das ist bestimmt nur ne schnelle karte für DX9.. wie damals die FX auch gut für DX8 war.. mehr aber auch nicht."
und
"aber wenn wir eh beim glaskugel-deuten sind.. ich wette, der R600 wird das einhalten, was sich die fangemeinde atm vom G80 verspricht.. wäre ja nicht das erste mal, dass NV irgendwas auf den markt schmeißt, das der andere IHV dann etwas später nutzbarer anbietet."

Wäre toll, wenn du solche Andeutungen mit etwas handfesterem als deinem "Bauchgefühl" untermauern würdest/könntest.

Was verspricht sich die Fangemeinde denn vom G80, was erst der R600 halten kann?


Q

Gast
2006-11-06, 18:43:53
8800 GTS - steckt auch noch jede Ati-Karte in die Tasche, es sei denn Ati launcht bis zum 8.11. noch schnell den R600.
Q

Ist das echt so fix? Denn in manchen Spielen roxx0rn schon die R5x0s recht derb:

http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

TobiWahnKenobi
2006-11-06, 18:47:58
Das klang oben aber noch ganz anders
nein, eigentlich nicht. bin fest davon überzeugt, dass es der gleiche rotz ist, wie bei jeder neuvorstellung einer next-gen-nv.

Ist das echt so fix? Denn in manchen Spielen roxx0rn schon die R5x0s recht derb:

http://www.elitebastards.com/hanners/carbon/charts/carbon-blur.png

krass. die doppelte leistung einer 7950gt muss die GF8 aber schon bringen.. sieht in NFSC ja mal richtig arm aus auf für nv.


(..)

mfg
tobi

master_blaster
2006-11-06, 18:50:46
es zwingt dich keiner, etwas zu lesen, was du schon kennst oder was dich nicht interessiert.
Es bringt nur nichts, alles pausenlos zu wiederholen und mir ist meine Zeit einfach zu schade, wenn ich merke dass ich grade wieder zum 29sten mal das gleiche wieder in grün lese; und meistens weis ich nicht vorher, was da bestimmte personen geschrieben haben, außer bei den Spezis eben, die sich pausenlos wiederholen

die meisten hier sind dort, wo du grad rumstolperst, schon gewesen
Aber du scheinst ja auchnoch da zusein, gell?


Ist das echt so fix? Denn in manchen Spielen roxx0rn schon die R5x0s recht derb:
Da in manchen Spielen auch die G71 (um es mit deinen Worten zu sagen ;) ) derbe roxx0rn, wird es wohl so sein, dass die Nachfolgegeneration schneller ist, denn irgendwo muss sie ja besser sein...


Nachtrag:
krass. die doppelte leistung einer 7950gt muss die GF8 aber schon bringen.. sieht in NFSC ja mal richtig arm aus auf für nv.

Du bist enttarnt, Fanboy... Übrigens sah das in NfS:MW genau andersrum aus.

Gast
2006-11-06, 18:51:21
Ist das echt so fix? Denn in manchen Spielen roxx0rn schon die R5x0s recht derb:

http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Gerade die Dinge, die den 7900ern nicht gut geschmeckt haben, dürften aus verschiedenen Gründen (wesentlich bessere MRT-Performance, entkoppelte TMUs, Bandbreite, usw.) auf der G80-Architektur schneller laufen. Deutlich schneller.

Und außerdem ist das gerade mal ein Spiel und davon auch noch die Demo. In Games wie Oblivion, Gothic 3 und wohl auch Call of Juarez sind die Atis ja auch deutlich schneller - und bieten z.T. auch noch bessere Bildqualität.

Die 8800 GTS hat ggü. der 8800 GTX eine ROP-Partition, 12,5% Skalarprozessoren (eine von acht Gruppen) und 64 Bit weniger Speicherbandbreite - zusätzlich zu geringeren Takten. Trotzdem erwarte ich eine Performance auf X1900 XT-Niveau in den schlechteren Fällen mit mehr Luft nach oben.


Q

Gast
2006-11-06, 18:54:09
nein, eigentlich nicht. bin fest davon überzeugt, dass es der gleiche rotz ist, wie bei jeder neuvorstellung einer next-gen-nv.


http://www.elitebastards.com/hanners/carbon/charts/carbon-blur.png

krass. die doppelte leistung einer 7950gt muss die GF8 aber schon bringen.. sieht in NFSC ja mal richtig arm aus auf für nv.


(..)

mfg
tobi

Danke, mit diesen Aussagen bestätigst du (leider) meinen Eindruck von deiner Vorstellung. Ein Produkt, auf welches du nach eigenen Aussagen "wartest" (ob genauso, wie ich bsw. sei mal dahingestellt) - es also noch nichtmal live gesehen hast - vorab als "den gleichen Rotz" wie sonst zu betiteln, zeugt ja von besonders großer Neutralität.


Q

TobiWahnKenobi
2006-11-06, 18:56:37
"neutral" muss ich ja wohl auch nicht sein, da ich schon in meiner glaskugel erkennen kann, dass hier ein rechner auf G80 und einer auf dem kommenden ati-chip laufen wird.

was hab' ich mit neutraler bewertung zu tun - ich bin kunde wie jeder andere auch. ich hab' nur einfacheren zugang und mitunter ein besseres budget als ein student oder schüler.
und ich muss nicht 30x von einer firma verarscht werden, um beim 31sten male an die positive wandlung zu glauben.. aus dem alter bin ich raus. die gegenwärtige leistung und darstellung ist mir sowohl bei ATI, als auch bei NV bekannt; im einzel oder im mpgu-pack.. glaube nicht, dass mich da noch was überraschen kann..

..noch nichtmal die GF8-rückrufaktion seitens NV.


(..)

mfg
tobi

Gast
2006-11-06, 19:00:35
muss ich ja wohl auch nicht sein, da ich schon in meiner glaskugel erkennen kann, dass hier ein rechner auf G80 und einer auf dem kommenden ati-chip laufen wird.

was hab' ich mit neutraler bewertung zu tun - ich bin kunde wie jeder andere auch. ich hab' nur einfacheren zugang und mitunter ein besseres budget als ein student oder schüler.


(..)

mfg
tobi
Natürlich "musst du nicht sein"...
Nur - neue Dinge mit alten Vorurteilen anzugehen ist auch nicht immer der beste Weg.

Ich denke, das wird zu OT - bei weiterem Interesse an dieser Diskussion kannst du mir gern eine PM schreiben (Quasar).


Q

Gast
2006-11-06, 19:11:03
... und ich muss nicht 30x von einer firma verarscht werden, um beim 31sten male an die positive wandlung zu glauben.. aus dem alter bin ich raus.

Dann baut Ati also immer noch Karten mit leisem Lüfter und geringer Leistungsaufnahme, während alle Nvidias laut sind und viel Strom saufen?

Nein, sorry. Mit alten Vorurteilen kommt man, denke ich, nicht weiter.


Q

Gast
2006-11-06, 19:18:00
Du bist enttarnt, Fanboy... Übrigens sah das in NfS:MW genau andersrum aus.

http://666kb.com/i/aj0orsa3oevt8z67q.png

TobiWahnKenobi
2006-11-06, 19:53:52
http://666kb.com/i/aj0orsa3oevt8z67q.png

was ist denn da genau andersrum..? obwohl die balken hinkommen. hab' an meine beiden 68er GTs auch das grausen im kopf, wenn ich an NFS denke. auf der 79GTX hab' ich es schon gar nicht mehr gestartet..

Dann baut Ati also immer noch Karten mit leisem Lüfter und geringer Leistungsaufnahme, während alle Nvidias laut sind und viel Strom saufen?

Nein, sorry. Mit alten Vorurteilen kommt man, denke ich, nicht weiter.
ich denke bei sowas eher an schlechte shaderperformance, nur knapp ausreichende FP16-HDRr-leistung, kaputte videoprozessoren und totgelegte tonemapping-units als an das kühlsystem.

den verbrauch und das kühlsystem finde ich nichtmal relevant bei einer gamerkarte aus dem highend-bereich - da ist es relevanter, was hinten rauskommt - entweder packt man die radaukarte(n) mit unter wasser, verbastelt sie mit 3rd party-kühlern oder man lebt einfach damit, dass man die ein oder andere pille schlucken muss..
spiel-konsolen sind zur zeit auch recht laut u. hitzig - das stört aber nicht wirklich am spiel.


(..)

mfg
tobi

master_blaster
2006-11-06, 19:59:33
Hättest vielleicht auch mal 1600*1200 mit abbilden sollen...
In der PCGH ist's noch deutlicher!
ich denke bei sowas eher an schlechte shaderperformance, nur knapp ausreichende FP16-HDRr-leistung
Schlechte Shaderleistung? Ich werfe mal zwei Shaderlastige Spiele in den Raum: Doom3:RoE, HL²:LC. Jeder möge sich seinen Teil denken.
OK, G3 läuft nicht so geil, *für nV schäm*.
HDR Leistung kann man, abgesehen vom FarCryBench, in Spielen nicht vernünftig nachstellen...

The_Invisible
2006-11-06, 20:00:14
der thread hier kratzt langsam wirklich schon an kindergarten/volksschul niveau...

mfg

Quasar
2006-11-06, 20:03:17
ich denke bei sowas eher an schlechte shaderperformance, nur knapp ausreichende FP16-HDRr-leistung, kaputte videoprozessoren und totgelegte tonemapping-units als an das kühlsystem.
Ich denke, das Beispiel hast du trotzdem verstanden, oder? Es ging ja um die Vorurteile.

den verbrauch und das kühlsystem finde ich nichtmal relevant bei einer gamerkarte aus dem highend-bereich - da ist es relevanter, was hinten rauskommt - entweder packt man die radaukarte(n) mit unter wasser, verbastelt sie mit 3rd party-kühlern oder man lebt einfach damit, dass man die ein oder andere pille schlucken muss..
spiel-konsolen sind zur zeit auch recht laut u. hitzig - das stört aber nicht wirklich am spiel.


(..)

mfg
tobi
Man kann sich's natürlich auch schönreden. Klar, "klar" kommt man immer - besonders, wenn man den Sound noch schön laut aufgedreht hat. Trotzdem ist mir eine leise, sparsame Karte lieber, als eine laute, stromsaufende. Genauso ist mir eine Karte mit hervorragendem FSAA und artefaktfreiem/-armem AF lieber als eine, die grad mal ein bißchen MSAA und Flimmereien bietet. Ebenso mag ich Kontrolle über meine Hardware und weniger Bevormundung durch irgendwelche Treibervoreinstellungen.

Mit diesen Vorlieben muss ich zwangsläufig Kompromisse eingehen. Im September sah dieser Kompromiss so aus, dass ich bereits eine X1900 XT ausgesucht und vorbestellt hatte, mir dann aber die gut 100 Euro weniger der 7900 GTO deren Mängel und niedrigere Performance ertragbarer machten, als die 100 Euro mehr und wiederum die Mängel der X1900. Bei gleichem Preis wäre es allerdings die Ati geworden.

Da fällt mir was ein.... *indenmarktplatzrennt*

Gast
2006-11-06, 20:26:53
Hättest vielleicht auch mal 1600*1200 mit abbilden sollen...
In der PCGH ist's noch deutlicher!


Dann troll im PCGH Forum weiter...

http://666kb.com/i/aj0qhfztoxzvwdkqe.png

LovesuckZ
2006-11-06, 20:28:51
ich denke bei sowas eher an schlechte shaderperformance,

Welche Karte?

nur knapp ausreichende FP16-HDRr-leistung,

Welche Karte?

spiel-konsolen sind zur zeit auch recht laut u. hitzig - das stört aber nicht wirklich am spiel.

Konsolen stehen meisten nicht 20cm links bzw. rechts von einen....

Frank1974
2006-11-06, 20:35:44
der thread hier kratzt langsam wirklich schon an kindergarten/volksschul niveau...

mfg

Ja, ist echt traurig, jeder Thread geht in Streit zwischen NV und Ati Leuten über, es stellt einer ne einfache Frage und am Ende hat es überhaupt nicht mehr mit dem Thema zu tun, nur billige Flames, man braucht ja nicht immer einer Meinung sein, wäre ja auch langweilig, aber es muss doch nicht immer so Fanatisch enden, geht es den Fans aus beiden Lagern irgendwie besser, wenn sie die andere Firma runtermachen können :|.

mfg
Frank

Quasar
2006-11-06, 20:46:40
Schlechte Shaderleistung? Ich werfe mal zwei Shaderlastige Spiele in den Raum: Doom3:RoE, HL²:LC.
Die sind aber gar nicht so shaderlastig, wie landläufig angenommen.

HDR Leistung kann man, abgesehen vom FarCryBench, in Spielen nicht vernünftig nachstellen...
Wieso nicht? Oblivion, AoE3, SeSam2 - alle nutzen, zumindest auf Nvidia, echtes Echtzeit-HDR(tm).

TobiWahnKenobi
2006-11-06, 20:53:55
Welche Karte?



Welche Karte?



Konsolen stehen meisten nicht 20cm links bzw. rechts von einen....

welche karte - welche karte.. ? jede karte, die einen neuen shader oder ein neues feature (hdrr) mitbrachte.


(..)

mfg
tobi

TobiWahnKenobi
2006-11-06, 20:56:22
Welche Karte?



Welche Karte?



Konsolen stehen meisten nicht 20cm links bzw. rechts von einen....

welche karte - welche karte.. ? jede karte, die einen neuen shader oder ein neues feature (hdrr) mitbrachte. egal ob's ne gefrosch 3 oder FX oder GF6 war.


(..)

mfg
tobi

Quasar
2006-11-06, 21:08:35
welche karte - welche karte.. ? jede karte, die einen neuen shader oder ein neues feature (hdrr) mitbrachte. egal ob's ne gefrosch 3 oder FX oder GF6 war.
Die FX war schlecht von der Shaderperformance in Spielen her - richtig. :) In anderen Shadern konnte erst die X1800 die Lücke zur FX5800u schließen - aber sowas (SIN, SINCOS Durchsatz) interessiert Gamer meistens nicht.

Dass sich die Mär der schlechten "Shaderperformance" der GF6 immer noch hält, wundert mich - oder ich erinnere mich falsch. Aber IMO war es eher die Texturseite als die Arithmetikseite, die die Karte bremste. Richtiger wäre also, von der im Vergleich zur X800-Reihe schwächeren Performance texturlastiger Shader zu sprechen.

Und die Geforce3 - naja, die war ja fast zeitlebens konkurrenzlos im Shader-Bereich. Erst die gegen Ende der GF3-Zeit eingeführte Radeon 8500 konnte sie schlagen, musste sich aber beinahe stante pedes gegen die GF4 erwehren, was ihr teilweise auch recht gut gelang.

TobiWahnKenobi
2006-11-06, 21:19:24
Dass sich die Mär der schlechten "Shaderperformance" der GF6 immer noch hält, wundert mich - oder ich erinnere mich falsch. Aber IMO war es eher die Texturseite als die Arithmetikseite, die die Karte bremste. Richtiger wäre also, von der im Vergleich zur X800-Reihe schwächeren Performance texturlastiger Shader zu sprechen.

Und die Geforce3 - naja, die war ja fast zeitlebens konkurrenzlos im Shader-Bereich. Erst die gegen Ende der GF3-Zeit eingeführte Radeon 8500 konnte sie schlagen, musste sich aber beinahe stante pedes gegen die GF4 erwehren, was ihr teilweise auch recht gut gelang.

über welche ferse eine GF6 limitiert, ist eigentlich auch wumpe. die karte reichte, um mal zu gucken, wie die neuen effekte wirken und heute, wo es einige games gibt, die die karte fordern, streckt sie die fühler.
bei der gefrosch3 hab' ich noch den 3Dmurks im kopf, wo man mit 15 oder 20fps erstmals die nature-demo bewundern durfte.. mit dem GF4 wurde das sogar sinnvoll schneller. mit der FX wurde das dann noch schneller und man konnte erste eindrücke von sm2 gewinnen. für mehr brauchte man dann schon ne gefrosch6. um deren ausblicke auf neues geniessen zu können, brauchte man dann schon zwei gleiche karten oder ne gefrosch7.. and so on.. wette..? das ändert sich nicht.


(..)

mfg
tobi

LovesuckZ
2006-11-06, 22:09:21
welche karte - welche karte.. ? jede karte, die einen neuen shader oder ein neues feature (hdrr) mitbrachte. egal ob's ne gefrosch 3 oder FX oder GF6 war.


Der R420 war nicht schneller. Seine Pro-Takt-Leistung war ähnlich zu der GF6.
Na gut, die Karte war auf PS2.b und VS2.0 begrenzt, lässt heute zum Beispiel kein Splinter Cell mehr starten und konnte kein "HDR-Lighting" (das mit den FP16 und so). Immerhin war sie nicht nutzlos, so wie die GF6.
Wie sieht eigentlich der r520 aus? In AoE3 scheint es ja nicht gerader Überflieger zu sein. Aber die ist ja auch nicht von Nvidia, gell?

Gummikuh
2006-11-06, 22:33:24
Wie sieht eigentlich der r520 aus?

So...

R520 (http://img.presence-pc.com/dossiers/R5xx/R520.jpg)

LovesuckZ
2006-11-06, 22:34:27
So...
R520 (http://img.presence-pc.com/dossiers/R5xx/R520.jpg)

Danke. :uclap:

Quasar
2006-11-07, 00:08:28
über welche ferse eine GF6 limitiert, ist eigentlich auch wumpe. die karte reichte, um mal zu gucken, wie die neuen effekte wirken und heute, wo es einige games gibt, die die karte fordern, streckt sie die fühler.
bei der gefrosch3 hab' ich noch den 3Dmurks im kopf, wo man mit 15 oder 20fps erstmals die nature-demo bewundern durfte.. mit dem GF4 wurde das sogar sinnvoll schneller. mit der FX wurde das dann noch schneller und man konnte erste eindrücke von sm2 gewinnen. für mehr brauchte man dann schon ne gefrosch6. um deren ausblicke auf neues geniessen zu können, brauchte man dann schon zwei gleiche karten oder ne gefrosch7.. and so on.. wette..? das ändert sich nicht.

Ich wette nicht - schon gar nicht um Dinge, die sich jetzt noch kaum abschätzen lassen, da a) es noch keine D3D10-Anwendung gibt und b) ich nicht weiss, was Atis R600 bieten wird.

Wenn's Dir "wumpe" ist, was bei der GF6 limitiert, dann sag' doch einfach, dass sie "suckt" - dann weiß man jedenfalls, dass es dir der technische Hintergrund "wumpe" ist. :) Ja, sie ist heute zu langsam für Oblivion mit HDR-Rendering und allen Details. Aber ist die damalige Konkurrenz besser?

Wenn Du Dich nur an 3DMarks erinnerst, dann tut's mir leid. Ausblicke sind doch was feines - für Leute wie Dich und mich. Was konnte denn die direkte Konkurrenz zur Geburtsstunde der Geforce3? Die konnten sich von Geforce3-Besitzern anhören, wie die Nature-Szene aussehen musste.

Natürlich sind jüngere Karten immer schneller, besser, sonstwas (die FX ist die sprichwörtliche Ausnahme von dieser Regel) - wer etwas anderes erwartet, ist IMO ein wenig weltfremd - aber das ist bei allen Firmen dasselbe und muss auch so sein, da sonst der Markt nach den aktuellen Gesetzmäßigkeiten nicht funktionieren würde.


Ganz davon abgesehen: Ich würde nicht nach den Features allein vergleichen, denn sonst müsstest Du ja Nvidias erste SM3-Karte (6800u) mit Atis erster SM3-Karte (X1800XT) gleichsetzen. Sinnvoller ist es, die Angebote zu einem gewissen Zeitpunkt X miteinander zu vergleichen.

Beispiel April 2004:
Nvidia entschied sich, SM3 und HDR-Rendering zu pushen, Ati verzichtete darauf (heute wissen wir warum) und versuchte durch pure Geschwindigkeit aber "nur" mit Shader-2 zu punkten. Beides sind valide Ansätze - ich sehe nicht den Sinn, nur einen davon zu verteufeln.

Gummikuh
2006-11-07, 00:26:21
Danke. :uclap:

Büdde :uup:

Ok...ich weiß, dass hier viele bei sowas absolut kein Späßchen mehr vertragen können...also net persönlich nehmen.:comfort:

Und den R520 kannste ja auch net nur nach einem einzigen Spiel beurteilen...Ok...hatte AOEIII noch bischen mit meiner 6800Gt gespielt, aber seitdem ich die X1800XT hab ists net mehr auf der Festplatte (hat aber nen anderen Grund :biggrin:).

Beim dritten mal in etwa dasselbe mit besserer Grafik...muss net sein :sneak:.

Man kann mit soner Karte aber durchaus gut zocken...ja der Lüfter ist halt Scheiße und mit nem Accelero wälzt man das Problem unter Umständen nur auf andere Komponenten um. Aber bei 7X00ern war und ist ja auch net überall erste Garde verbaut...7800GTX 512, 7900 GTX/GTO sind da ja nur nen Tropfen auf dem heißen Stein.

Gast
2006-11-07, 03:55:38
erst mal danke für eure Beiträge.

vielleicht sollte ich noch warten.
wann wird es denn die 8800GTS im Handel geben, wird das noch länger dauern?

Wenn du wirklich einen richtigen performance unterschied willst wartest du auf die nächsten generationen von nv oder ati. Für welche du dich am ende entscheidest, sollte dann von deiner zuneigung aus gehen...

Ich persöhnlich würde keine nv karte jetzt noch holen vor den launches der neuen generationen der beiden firmen, da alles unsinnig ist vorallem eine gx2 zu kaufen, obwohl alles auch mit deiner x1900 im grünen bereich läuft. Ausser du willst nun unbedingt in 1600er+ auflösungen zocken(+allem schnickschnack auf höchste) und kannst nicht mehr warten, dann lohnt es sich wohl schon.


Das geheule von euch ist echt nicht zu ertragen wenn man sich so die posts von all den leuten ansieht. Nein ati ist besser nein nv, ey geht doch in eure ecke und heult euch aus oder verkloppt euch gegenseitig. Der eine hat ein nv logo in seinem avatar und meint seine meinung zu einer ati abgeben zu können und umgekehrt.

Echt zu was für eine kinderscheisse doch so eine frage mutieren kann!

Einfach nur erbärmlich!!

WilhelmH
2006-11-07, 04:25:18
Viele Seiten wurden hier jetzt geschrieben, aber wirklich geholfen hat kaum jemand. Pakt eure Glaskugeln weg und wenn ihr euch wegen ATI vs. Nvidia die Köpfe einschlagen wollt dann sucht euch einen anderen Thread.

@Thema-Starter: Vielleicht hilft dir dieser Test auf TomsHardware weiter. (http://hardware.thgweb.de/2006/11/06/grafikkarten-charts-bestenliste-vergleichstest/)

MikBach
2006-11-07, 10:49:17
Außer Flames hast du nichts beizutragen oder Mr. Viral Marketing?

http://www.geizhals.at/deutschland/a224910.html

8800 GTS - steckt auch noch jede Ati-Karte in die Tasche, es sei denn Ati launcht bis zum 8.11. noch schnell den R600.

Ich weiß, was jetzt kommt: Bis 431 Euro hat Nvidia Ati nichts entgegenzusetzen.... ;D


Q
Quasar,

was soll der Scheiß?
Welche Flames meinst du?
Bitte konkret werden, ja? :)

Gruß M_B

MikBach
2006-11-07, 10:57:57
Alle, die 'ne ATI Karte empfehlen, ohne Argumente anzuführen und nur auf den 3Tausend700Millardenund589Mal durchgehakten, gleichen Nachteilen von nVidia Karten rumhacken, denn irgendwann interessierts keine Sau mehr und 's wird langweilig!
Was labberst du für Müll?

Es gibt konkrete Argumente wie z.B. das HQ-AF, was die Geforces bis jetzt nicht könne.
Diese Feature wertet die BQ extrem auf.
Ich bin selbst mit meiner X1950PRO noch nicht ganz zufrieden, was das AF angeht.
Bei bestimmten, sehr wenigen, Winkeln sieht es immernoch leicht matschig aus.
Dies dürften die meisten Maulwürfe aber nicht mitbekommen. ;D


Verpixelte Schatten? Hab' ich nicht.
Hat bei Spielen wo PCF verwendet wird jeder.
Da sieht man, dass du keine Ahnung hast, sorry.

Gruß M_B

MikBach
2006-11-07, 10:59:34
Kannst du das bitte näher erklären? Warum ist Ultrashadow ursächlich Schuld an verpixelten Schatten?


Q

(das drüber war ich auch)
Siehe mein Posting darüber.

Mittelerde 2 ist dir ein Begriff?

Gruß M_B


Du bist enttarnt, Fanboy... Übrigens sah das in NfS:MW genau andersrum aus.
Tobi Fanboy zu nennen ist schon ziemlich krass.
Lies mal seine Postings von vor einem halben Jahr, da würdest du glatt NV-Fanboy sagen...;D

Der R420 war nicht schneller. Seine Pro-Takt-Leistung war ähnlich zu der GF6.
Unsinn.
In der Theorie mag dies vielleicht stimmen. In der Praxis sah es ganz anders aus.
Das kann ich locker vom Hocker behaupten, da ich eine 6800GT und eine X800XT hatte. :P

Gruß M_B

The_Invisible
2006-11-07, 11:15:09
an mikbach "gefallen" mir immer seine "wer, was, wie, wo? was meinst du jetzt konkret?" aussagen. als müsste man nem kleinkind immer sagen was es falsch gemacht hat da es dazu selber noch nicht in der lage ist.

will hier eigentlich keinen beleidigen, aber das fällt mir schon seit längerem auf

mfg

MikBach
2006-11-07, 11:23:00
an mikbach "gefallen" mir immer seine "wer, was, wie, wo? was meinst du jetzt konkret?" aussagen. als müsste man nem kleinkind immer sagen was es falsch gemacht hat da es dazu selber noch nicht in der lage ist.

will hier eigentlich keinen beleidigen, aber das fällt mir schon seit längerem auf

mfg
Klar Mr Nvidia...:P

Wenn mir jemand vowirft zu flamen, dann will ich eine konkrete Aussage mit Zitat.
Sonst kann man sich die Diskussion auch sparen und in den Kindergarten gehen.

Gruß M_B

4711
2006-11-07, 11:26:22
[QUOTE=MikBach]Tobi Fanboy zu nennen ist schon ziemlich krass.

"Lies mal seine Postings von vor einem halben Jahr, da würdest du glatt NV-Fanboy sagen.."




Danke paßt deine Aussage...wie die Faust aufs Auge..soviel dazu.

MikBach
2006-11-07, 11:34:45
Tobi Fanboy zu nennen ist schon ziemlich krass.

"Lies mal seine Postings von vor einem halben Jahr, da würdest du glatt NV-Fanboy sagen.."




Danke paßt deine Aussage...wie die Faust aufs Auge..soviel dazu.

Lesen, denken, posten.
Damit wollte ich nur sagen, dass Tobi sicherlich kein Fanboy ist.

PS Quoten will gelernt sein. :)

Gruß M_B

Gast
2006-11-07, 11:48:37
Doch genau das isser,nur wechselt er die Seiten wie unsereins die Unterhosen...

MikBach
2006-11-07, 11:54:55
Doch genau das isser,nur wechselt er die Seiten wie unsereins die Unterhosen...
Nene ein richtiger Fanboy ist über Jahre seiner Marke treu...:wink:

Aber Back to Topic!!!
Es geht hier um Grafikkarten, NICHT um bestimmte Personen!

Thread ist eh schon per PM an einen Mod gemeldet, also reisst euch zusammen und bleibt sachlich!

Gruß M_B

4711
2006-11-07, 12:16:29
also langsam reicht es!
Du und deines gleichen zermüllt hier jeden Thread und dann noch große Töne spucken!
Mir platzt bald die Hutschnur aber kräftig,hauab in dein ATI Forum verdammt nochmal!

MikBach
2006-11-07, 12:23:54
also langsam reicht es!
Du und deines gleichen zermüllt hier jeden Thread und dann noch große Töne spucken!
Mir platzt bald die Hutschnur aber kräftig,hauab in dein ATI Forum verdammt nochmal!
Mässige bitte deinen Ton junger Padawan.

Und warum sollte ich in irgendein Forum abhauen?
Das bestimmst sicherlich nicht du!

Also Füsse still halten wenn man nichts zum Thema beizutragen hat.
Kapische? :|

Gast
2006-11-07, 12:27:18
Mässige bitte deinen Ton junger Padawan.

Und warum sollte ich in irgendein Forum abhauen?
Das bestimmst sicherlich nicht du!

Also Füsse still halten wenn man nichts zum Thema beizutragen hat.
Kapische? :|

Er hat doch recht! Ihr zerlabert hier jeden Fred, wenn der G80 draussen ist, werde ich in jedem ATI thread die schlechtere BQ anmahnen, etc, in jedem, ausnahmslos ...

MikBach
2006-11-07, 12:45:41
Er hat doch recht! Ihr zerlabert hier jeden Fred, wenn der G80 draussen ist, werde ich in jedem ATI thread die schlechtere BQ anmahnen, etc, in jedem, ausnahmslos ...
Welche schlechtere BQ?

Es steht noch überhaupt nicht fest, ob der G80 beim AF dem R580 das Wasser reichen kann.

Kommt drauf an wie winkelunabhängig der G80 filtert.

deekey777
2006-11-07, 13:30:57
Der Thread wird jetzt dicht gemacht, und mehrere Leute werden Mod-Orange zu sehen bekommen. Mir persönlich ist es egal, was man über die Hardware denkt, das ist jedes Users sein Recht. Was mir aber nicht egal ist, wie das rüber gebracht wird, sprich die Wortwahl.
Darum gibt es ein Update (Inet war ausgefallen)
Außer Flames hast du nichts beizutragen oder Mr. Viral Marketing?

http://www.geizhals.at/deutschland/a224910.html

8800 GTS - steckt auch noch jede Ati-Karte in die Tasche, es sei denn Ati launcht bis zum 8.11. noch schnell den R600.

Ich weiß, was jetzt kommt: Bis 431 Euro hat Nvidia Ati nichts entgegenzusetzen.... ;D


Q
Für den Flame gibt es eine Verwarnung.
The_Invisible, für deinen netten Postings wie das unten stehende gibt es eine Verwarnung, die du sehr ernst nehmen solltest.
junge, red nicht immer so einen mist sonst vergeht mir noch das mittagessen...

die nächsten 3 monate werden alles andere als rosig für ati

mfg
die gina, du bekommst einen Tag Auszeit:
Na super; ich ess' grad', Leute! Schmeisst die ATI Fanboys raus! Sonst fällt mir wieder alles aus dem Schnabel.


Was ist mit Technologien wie Ultrashadow?! Bring Leistung und wurde deswegen von ATI kopiert.
Shader Modell 3: Vereinfacht Programmierung von komplexen shadern und Mappingverfahren.


Für mich ist Vorfreude noch immer die schönste Freude, abgesehen von der Schadenfreude. :wink:


Dann lass das Spekulieren doch oder verschiebs wenigstens ins ATI Forum. Warum müssen sich die armen nVidia Jünger sowas eigentlich bieten lassen!? Macht ja auch keiner im ATI Forum und wenn doch, scheisst man ihn direkt zusammen.


Nein, das Forum wird von NV gesponsort, heisst schließlich auch nVidia Forum:wink:
Es bringt nur nichts, alles pausenlos zu wiederholen und mir ist meine Zeit einfach zu schade, wenn ich merke dass ich grade wieder zum 29sten mal das gleiche wieder in grün lese; und meistens weis ich nicht vorher, was da bestimmte personen geschrieben haben, außer bei den Spezis eben, die sich pausenlos wiederholen


Aber du scheinst ja auchnoch da zusein, gell?



Da in manchen Spielen auch die G71 (um es mit deinen Worten zu sagen ;) ) derbe roxx0rn, wird es wohl so sein, dass die Nachfolgegeneration schneller ist, denn irgendwo muss sie ja besser sein...


Nachtrag:

Du bist enttarnt, Fanboy... Übrigens sah das in NfS:MW genau andersrum aus.
4711, für dich gibt es auch einen Tag Auszeit, insbesondere dafür:
also langsam reicht es!
Du und deines gleichen zermüllt hier jeden Thread und dann noch große Töne spucken!
Mir platzt bald die Hutschnur aber kräftig,hauab in dein ATI Forum verdammt nochmal!
Und jetzt zu MikBach:
Ich mach's kurz. Ob jetzt die Dinger wahr sind oder nicht, spielt bei der Bewertung deiner Strafe (klingt doof) keine Rolle, aber deine Wortwahl. Du führst dich auf wie ein Elefant in einem Porzelanladen auf. Auch für dich gibt es einen Tag Auszeit.
Die gesperrten kriegen eine Email von mir in Kürze.

deekey777
2006-11-07, 21:09:48
Der Thread ist wieder geöffnet. Verzichtet auf einen Grün-Rot-Krieg, das führt nur zu Frust.