PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7900gto schneller als?


Unknown Soldier
2006-10-02, 17:49:14
Hallo ich wüßte gern ob die 7900gto schneller ist als die 1900xt 256mb. Sind ja vom preis ähnlich. Danke für jede antwort.

Ronny G.
2006-10-02, 17:57:13
Wenn du sie auf GTX-Format taktest. was nach meinen Einschätzungen min.90% aller GTO´s schaffen, ist sie eher mit mit der X1900XTX zu vergleichen.
Halt das übliche Spielchen, mal hat die eine 5% mehr, mal die andere.

HellFire
2006-10-02, 18:02:01
Die GTO@normal Takt kommt zum Teil sogar an die X1900XT 512 MB ran.

Würde auf jedenfall zur GTO greifen, ist leiser, nicht so stromhungrig und hat keinen Brüllwürfellüfter :)

Beste Preisleistungskarte im Moment ;)

Unknown Soldier
2006-10-02, 18:05:34
Danke für die schnellen antworten hat mir sehr geholfen.:smile:

PCGH_Carsten
2006-10-02, 18:10:29
Hallo ich wüßte gern ob die 7900gto schneller ist als die 1900xt 256mb. Sind ja vom preis ähnlich. Danke für jede antwort.
Nein, ist sie i.A. nicht.

The_Invisible
2006-10-02, 18:12:03
wenn nicht gerade speicherbandbreite gefragt ist werden sie ziemlich gleichauf liegen

mfg

Ronny G.
2006-10-02, 18:13:14
Nein, ist sie i.A. nicht.

Du meinst hier aber sicherlich die GTO ohne Takterhöhung.

HellFire
2006-10-02, 19:26:52
also wenn man diesen Benchmarks glaube schenken darf ist sie teilweise schon schneller als die X1900 XT sowohl als 256MB als auch 512 MB Variante. Hängt halt vom Spiel ab. Bei Quake 4, F.E.A.R., Oblivion, AoE III ist sie schon schneller lt. Benchmarks.

http://www.presence-pc.com/tests/nVidia-GeForce-7950-GT-479/3/

Spasstiger
2006-10-02, 19:39:41
Die 7900 GTO bietet mit ihren 512 MB mehr Reserven in VRAM-lastigen Szenen. Selbst wenn die Durchschnittsframe unter dem Niveau der X1900 XT 256 MB liegt, so kann es sein, dass die X1900 XT 256 MB stellenweise wegen VRAM-Mangel einbricht, die 7900 GTO dagegen konstante Frameraten liefert.
Der Cinematic Mod v3.0 für Half-Life 2 soll ja erst auf 512-MB-Karten ohne Slowdowns spielbar sein.

vinacis_vivids
2006-10-03, 03:24:55
Nein, ist sie i.A. nicht.

Wo er recht hat hat er recht. Es gilt den Gesamte im Blick zu behalten und nicht in gesonderten Einzelfällen.
Für die aktuelle und meisgenutze Auflösung von 1280x1024 ist die x1900xt (256MB) schneller.

Ronny G.
2006-10-03, 03:55:18
Warum gibt es eigentlich im Hardware Leistungsindex in der PCGH eigentliche keine richtige X1900XT? nur eine AIW:confused: ?

StefanV
2006-10-03, 04:08:42
Wenn du sie auf GTX-Format taktest. was nach meinen Einschätzungen min.90% aller GTO´s schaffen, ist sie eher mit mit der X1900XTX zu vergleichen.
Halt das übliche Spielchen, mal hat die eine 5% mehr, mal die andere.
Ja, und wenn ich die x1900XT übertakte, ist die wieder schneller...

Sorry, aber solche Aussagen sind echt fürn Hintern, man Sollte _IMMER_ vom Auslieferungs/Standardzustand ausgehen und nicht das sich XYZ besser übertakten lässt als XZY...

PS: ich würd eher die x1900 nehmen, bricht bei dyn. Branching nicht so stark ein, hat besseres AF und FSAA.

Razor
2006-10-03, 04:36:06
PS: ich würd eher die x1900 nehmen, bricht bei dyn. Branching nicht so stark ein, hat besseres AF und FSAA.

ich würde lieber eine GTO nehmen... ist leise, effizient, hat das bessere MultiMonitor-Konzept und auch das bessere ControlPanel.

Razor

Ronny G.
2006-10-03, 04:42:37
Ja, und wenn ich die x1900XT übertakte, ist die wieder schneller...


und was ist wenn du die GTO@GTX noch weiter übertaktest?:biggrin:

Haben beide ihr vor und Nachteile, nur für den Kampfpreis von 224€ in meinem Fall kann keine X1900 der GTO das Wasser reichen.
An der Karte stimmt einfach alles.

tokugawa
2006-10-03, 05:38:44
ich würde lieber eine GTO nehmen... ist leise, effizient, hat das bessere MultiMonitor-Konzept und auch das bessere ControlPanel.

Razor


Und generell die robusteren Treiber.

vinacis_vivids
2006-10-03, 05:44:07
http://www.hardware.fr/articles/639-12/comparatif-gpu-dx9-200-350.html

Vertraut man diesen Bericht, ist die 7900GTO ohne FSAA einer x1900xt 256MB leicht überlegen. Schaltet man aber 4xFSAA hinzu, herrscht in 1280x1024 praktisch Gleichstand - schaltet man hoch auf 1600x1200 so dreht sich der zeiger etwas Richtung x1900xt 256MB. Mit HDR und FSAA ist ATI natürlich der haushohe Sieger.
Direkte Kongurenz wie die 7900GT 256MB und 7950GT 512MB landen hinter den beiden - besonders die 7900GT mit spürbaren Abstand.
Somit ergibt sich die Schlussfolgerung, dass die x1900xt 512MB der 7900GTO sehr wohl überlegen (somit eher mit der 7900GTX vergleichbar) ist. Praktischer Gleichstand herrscht der Vergleich mit x1900xt 256er Version.
Mit der GTO ist somit ein guter Wurf gelungen. Die Allgemeine Performance zeigt eher Richtung 7950GT als in der von 7900GTX. Aber der Superkühler und der geringere Verbrauch spricht für diese Karte.

Formel bei Verwendung von 4xfsaa.
7900GT < 7950GT < x1900xt 256 = 7900GTO < x1900xt 512 = 7900GTX <= x1900xtx < x1950xtx < 79x0gx2.
Je höher die Auflösung ist desto mehr dreht sich das Blatt zugunsten von ATI.


Grüße

Razor
2006-10-03, 05:59:16
Sehr schöne Darlegung... wirklich!
:up:

Allerdings 'stört' mich ein wenig das "Mit HDR und FSAA ist ATI natürlich der haushohe Sieger.".
Oder wie soll man dies nun verstehen?

Zumal es ATI ja noch immer nicht geschafft hat, den Chuck-Mod, der dies ermöglicht, in den Treiber zu integrieren...
...offenbar wollen sie dieses auch gar nicht.

Wird also "out-of-the-box" vergleichen, kann ATI (wie nVidia) gar kein "HDR und FSAA".
Das ist leider Fakt...

---

Aber davon ab - sollte der TI vielleicht mal zum besten geben, wie er sich den Einsatz der Karte vorstellt!
- in welcher Auflösung soll gespielt werden
- interessiert so etwas wie "SLI-AA" (oder das entsprechende Pendant von ATI)
- welche Spiele interessieren generell

Razor

Gast
2006-10-03, 07:46:59
@Razor,

stimmt schon, aber soweit ich weis kann Nvidia überhaupt kein HDR+FSAA. Oder gibt es hier inzwieschen auch schon irgend welche Tools die das freischalten können?

Gast
2006-10-03, 09:09:57
Die GF-Karten können kein MSAA+HDR. FSAA aber schon - wie AoE3 beweist. Dort können die Radeons wiederum nur ein eingeschränktes HDR (RGBA1010102) bieten - dafür aber mit MSAA.


Q

TobiWahnKenobi
2006-10-03, 09:44:10
die "was ist schneller frage" halte ich zwischenzeitlich zwar für obsolet, aber man sollte nicht vergessen, dass man NV karten ja auch noch im highperformance mode betreiben kann.. dann sind sie schneller, als alles andere. das sieht dann zwar auch so aus, aber als nvidianer ist man ja eh leidensfähig; ausserdem ist sie schön leise und SLi-fähig ;)
wenn man AA und AF global im treiber unterdrückt, fährt man in jedem benchmark bestpunkte ein und das ist doch das einzige was bei i-net vergleichen zählt, oder?

p.s.
ATI: catalyst 6.10 hat den chuckpatch integriert, hab' ich mich schon von überzeugen können. und: wer beides kennt und zu bedienen weiss, kauft sicher nicht die NV.


(..)

mfg
tobi

Unknown Soldier
2006-10-03, 10:54:15
War eigentlich nicht als kaufberatung gedacht. Wollte aus reinem interrese wissen wie sich die beiden Karten im Vergleich schlagen, da ich davor nur von der x1900xt 512mb gegen die 7900gto gelesen habe. Wo Ati natürlich den Sieg davon trägt, aber zum höheren Preis.

Gast
2006-10-03, 11:02:28
bei mir waren auch die beiden Karten im engsten Auswahlkreis, hab mich nun für die 7900GTO entschieden, folgende Punkte sprachen bei mir dafür:

1. 7900GTO um einiges günstiger als die 512 MB ATI
2. habe zur Zeit noch eine x850pro, nach ca 17 verschiedenen Treibern (u.a. NGO, Omega etc) hätte ich nun den besten für WoW gefunden, bei Nvidia geht man auf die offizielle HP und hat seine Ruhe :-)
3. mein Laptop hat eine 9700pro drin -> auch Treiberprobleme
4. da die x850pro jetzt rausfliegt, muss ich die Heizung im Zimmer wieder anmachen :)

Spasstiger
2006-10-03, 11:28:22
die "was ist schneller frage" halte ich zwischenzeitlich zwar für obsolet, aber man sollte nicht vergessen, dass man NV karten ja auch noch im highperformance mode betreiben kann.. dann sind sie schneller
Ist doch im High-End-Bereich völlig uninteressant, man kauft High-End-Karten, um auf hoher Qualität spielen zu können.
Ich finde die 7900 GTO wegen dem größeren Speicher und dem vernünftigen, leisen Kühler aber auch interessanter.

Rente
2006-10-03, 11:36:15
bei mir waren auch die beiden Karten im engsten Auswahlkreis, hab mich nun für die 7900GTO entschieden, folgende Punkte sprachen bei mir dafür:

1. 7900GTO um einiges günstiger als die 512 MB ATI
2. habe zur Zeit noch eine x850pro, nach ca 17 verschiedenen Treibern (u.a. NGO, Omega etc) hätte ich nun den besten für WoW gefunden, bei Nvidia geht man auf die offizielle HP und hat seine Ruhe :-)
3. mein Laptop hat eine 9700pro drin -> auch Treiberprobleme
4. da die x850pro jetzt rausfliegt, muss ich die Heizung im Zimmer wieder anmachen :)
1. Eine X1900XT kostet aktuell 45€ mehr... (einiges wäre mehr mM)
2. Hättest du einfach den aktuellen Catalyst bzw. den 4.12er benutzt hättest du mit WoW keine Probleme gehabt
3. Siehe 2., du hättest nur hier fragen brauchen
4. Die GTO entwickelt mehr Abwärme und pustet sie in den Raum als die X850Pro, du kannst dein Heizung also aus lassen (das gilt vorallem im OC-Betrieb).

Sorry4OT

TobiWahnKenobi
2006-10-03, 11:57:11
Ist doch im High-End-Bereich völlig uninteressant, man kauft High-End-Karten, um auf hoher Qualität spielen zu können.
naja.. hohe qualität und nvidia sind mit DX9 im gleichen kontext (für mich) ein widerspruch.
Ich finde die 7900 GTO wegen dem größeren Speicher und dem vernünftigen, leisen Kühler aber auch interessanter.
ohne frage. ich fand an meiner 79GTX auch nur den kühler gut. nur ist mir ein kühler nicht den verzicht auf features wert. für einen zweitrechner hat die GTO aber einen optimalen preis. dafür ist sie sicher klasse. beim haupt-zock-PC würde ich lieber ein paar euronen drauflegen und weniger kompromisse eingehen.


(..)

mfg
tobi

4711
2006-10-03, 12:02:16
Langsam reicht es!
Hast Du dich zum 11 jährigen zurückentwickelt?

Razor
2006-10-03, 12:09:06
1. Eine X1900XT kostet aktuell 45€ mehr... (einiges wäre mehr mM)
2. Hättest du einfach den aktuellen Catalyst bzw. den 4.12er benutzt hättest du mit WoW keine Probleme gehabt
3. Siehe 2., du hättest nur hier fragen brauchen
4. Die GTO entwickelt mehr Abwärme und pustet sie in den Raum als die X850Pro, du kannst dein Heizung also aus lassen (das gilt vorallem im OC-Betrieb).

Ad1: also ca. 20-25% mehr...
Ad2/3: wie lange gibt es WoW schon?
Ad4: weniger Leistungsaufnahme = weniger Abwärme und an das "raus pusten" glaubst Du doch wohl selber nicht
(hat schon bei den 'normalen' Silencern nicht funktioniert ;-)

-

Zu denm Kommentar von vorhin: wie soll ein Vergleich bei völlig unetrschiedlichen Voraussetzungen funktioneiren?
Insofern ist die Bemerkung: "mit FSAA+HDR ist wer ein haushoher Sieger" nicht nur falsch, sondern purer Unsinn.

@Tobi

Der Besitzt einer ATI-Karte scheint Dir den Geist vernebelt zu haben...
ATI und nVidia geben sich hinsichtlich der Performance derzeit fast nichts... einmal ist der eine schenller, mal der andere.
Für das Spielen aktueller Games (und derer die noch kommen werden) reichen beide vollkommen aus.

Wer auf "KlickiBunti" im resourcenfressenden .NET-CCC von ATI steht und auf die wohl derzeit beste MultiMon-Funktionalität am Markt verzichten möchte, darf gerne zu ATI greifen. Wer auf Effizienz setzt und wem 'Ruhe' wichtig ist, dabei aber auf die ultimative Filterqualität ala GeForce3+ verzichten kann (OK, müssen ATI-User derzeit auch noch immer ;-) und zudem noch ein bissel Knete sparen will, setzt eben auf nVidia.

So oder so, sind IMO beide Lösungen nicht 'optimal'.

Hoffe also, dass es R600 und/oder G80 wieder richten und es mal endlich wieder effiziente Lösungen bei gleichzeitig 'perfekter' Qualität und guter Performance geben wird... auch wenn das in heutigen Tagen eher einem Wuschtraum gleicht.

Razor

Razor
2006-10-03, 12:12:29
Langsam reicht es!
Hast Du dich zum 11 jährigen zurückentwickelt?

Laß ihn... offenbar färbt der Besitz einer ATI-Karte auf den User ab.
Gottlob gilt das nicht für alle... aber auf einige scheint dies so zu zutreffen.

Früher waren seine Posts mit Logik und Plausibilität gespickt...
...heute 'spickt' da irgendwie etwas anderes hinein.

Sorry4OT!

Razor

TobiWahnKenobi
2006-10-03, 12:13:18
wieso? nur weil ich für nvidia-grafik kein fass mehr aufmachen würde? das hat weniger mit dem alter zu tun, als mit den mir zur verfügung stehenden vergleichsmöglichkeiten..

stell' dir doch einfach auch zwei oder drei rechner zum zocken nebeneinander. du wirst über zwei drei wochen feststellen, auf welcher kiste du am liebsten spielst.

die mehrschirm-funktionalität ist sowohl auf ATI, als auch auf NV hardware gegeben. da kann ich ja ein liedchen von singen. unter suse-linux lassen sich sowohl NV, als auch ATI treiber (beschissen) einbinden.

apropos monitore: ich wechsel grad auf widescreen - mal sehen, ob das etwas an meiner derzeitigen auffassung ändert (ich glaube aber nicht dran).


(..)

mfg
tobi

Gast
2006-10-03, 12:16:04
die Qualli die sie immer ausgraben hatt man doch nur mit "Ai off" (hatte ne 1900er xtx)und dann fangen sie an zu heulen weil die Power nicht mehr reicht..oder sie stellen sich wieder nen 17 Zöller hin....

ATI Treiber wenn ich daran zurück denke bekomm ichs kalte Grausen ab dem 6.2 nur noch Müll..aber zugeben,das schaffen doch nur die wenigsten...

*4711*

der gerade wieder Oblivion in einer sagenhaften Qualli zockt in 1600x1200 mit richtig Power.

Sven77
2006-10-03, 12:16:32
Laß ihn... offenbar färbt der Besitz einer ATI-Karte auf den User ab.
Gottlob gilt das nicht für alle... aber auf einige scheint dies so zu zutreffen.

eher das gegenteil... bin froh den Ati-quark aus dem rechner "entfernt" zu haben.. wer ne X850XT haben will, PM ;)

Gast
2006-10-03, 12:17:12
wieso? nur weil ich für nvidia-grafik kein fass mehr aufmachen würde? das hat weniger mit dem alter zu tun, als mit den mir zur verfügung stehenden vergleichsmöglichkeiten..

stell' dir doch einfach auch zwei oder drei rechner zum zocken nebeneinander. du wirst über zwei drei wochen feststellen, auf welcher kiste du am liebsten spielst.


(..)

mfg
tobi

vergiß es ich hab ne 1900er eingetauscht gegen die GX²..mir brauchste nix zu erzählen.

Razor
2006-10-03, 12:17:15
@Tobi

Ist schon einige Zeit her (damals R300 vs. NV30) und meine Wahl fiel auf nVidia.
Soll sich das (trotz dem "Föhn" bei ATI und der irrsinnigen Leistungsaufnahme) jetzt geändert haben?
Wenn ja... was?
:confused:

Pauschalbehauptungen sind ja ganz 'nett'... entbehren halt nur der Nachvollziehbarkeit, gell?

Razor

Gast
2006-10-03, 12:17:54
das war ich *4711*

Gast
2006-10-03, 12:20:47
@razor: du sprichst mir aus der Seele

beispiel alternate:
512MB Sapphire Radeon X1900XTX: 359.-
512MB MSI NX7900GTO-T2D512E: 239.-

etwas mehr als 45€.

jetz kommt der nächste und schreibt: "www.geizhalts.at", kauf bei Hans-Huber, da kosten beide 20-30 euro weniger!

Spasstiger
2006-10-03, 12:20:48
Früher waren seine Posts mit Logik und Plausibilität gespickt...
...heute 'spickt' da irgendwie etwas anderes hinein.

Du fandest es also plausibel, als er noch GeForce-FX-Karten in den Himmel lobte, welche ja auch zweifellos eine gute AF-Quali hatten, aber du findest es nicht plausibel, wenn er ein Produkt lobt, das neben der guten Bildquali auch mehr Speed liefert?

TobiWahnKenobi
2006-10-03, 12:30:50
@Tobi

Ist schon einige Zeit her (damals R300 vs. NV30) und meine Wahl fiel auf nVidia.
Soll sich das (trotz dem "Föhn" bei ATI und der irrsinnigen Leistungsaufnahme) jetzt geändert haben?
Wenn ja... was?


Pauschalbehauptungen sind ja ganz 'nett'... entbehren halt nur der Nachvollziehbarkeit, gell?

Razor

ich verstehe nicht, was du meinst. mein erster ATI treiber (und meine erste ATI grafikkarte, die DX9 beherrschte) war der 6.5er Catalyst auf der X1900XTX (von Asus). zwei wochen später kam der erste chuckalyst-treiber und seit dem vermisse ich nichts im vergleich zu meiner 79GTx oder im vergleich mit meinem alten SLi system.

die beiden bildschirme (+TV) haben ordnungsgemäß funktioniert (dualview und span genutzt), zusätzlich konnte ich eine TV-karte ausbauen (weil die ATI eine VIVO karte ist), an der ich vormals meine zweite konsole angestöpselt hatte und das geräuschniveau wird im i-net gern gepusht.

mag sein, dass ich von dem NV40SLi etwas krach gewöhnt war, aber die XTX fällt mir nicht unangenehm auf. OK - mein case ist groß und wg. der wakü absolut auf raumtemperatur unterwegs (vielleicht dreht der ATI kühler deshalb nie auf 100%). was wollte ich?? achja: ich halte einen kühlerwechsel (den hatte ich im vorfeld eingeplant) zwischenzeitlich für unnötig. ich muss im normalen windowsbetrieb schon hochkonzentiert unter den tisch kriechen, um herauszuhören, ob ich grad einen radiator-lüfter, einen chipsatzlüfter oder eine grafikkarte höre. da hab' ich die 79GT sehr viel deutlicher (störend!) wahrgenommen.

die bildqualität ist im schnitt einfach besser. ich kann ja nun wirklich ein liedchen davon singen, wie man auf NV das maximum herausholt und flimmern minimiert. bei ATI ist das leichter zu erreichen und wo es nicht reicht, drückt man AA rein. optimalerweise ohne erst nachdenken zu müssen, ob ein spiel HDRr nutzt und ob kantenglättung überhaupt machbar ist.

weitere überzeugungsarbeit leistet ATIs 6xAA modus bei mir, da ich auf den NVidia-karten immer versucht habe, den 8xS modus spielbar zu erreichen. der 6x modus erreicht vergleichbare bis bessere resultate und lässt die framerate dort, wo sie hingehört. das sind keine einbildungen - das sind erfahrungswerte. sicher spielen da auch die spielchen mit rein, die man sich für die freizeitgestaltung kauft, aber da hab' ich mit TES4, BF2 (hier sehen sowohl auf ATI, als auch auf NV die schatten lausig aus) und GTL eigentlich einige spiele am start, die auf ATI einfach klasse sind und auf NV ziemlich mies.

ich hatte fast 10 jahre nur NV im hauptrechner und nutze die funktionen einer grafikkarte auch abseits der spiele.. also auch die kleinigkeiten, die den meisten nichtmal auffallen, bemerke ich recht schnell. in der redaktion liegen noch etliche karten rum, die ich mir evtl. sogar auch einbauen könnte bzw. die ab und zu zu vergleichen verbaut werden. zusammen mit meinem fundus daheim komme ich so auf ganz ganz viele NV karten und eine einzige ATI (plus eine X1950XTX, die sapphire aber wiederhaben will).

was hätte ich davon, wenn ich jetzt aus purer langeweile alle diese NV karten schlecht machen würde und die einzige ATI herauszustellen versuche???

@spasstiger
die FX war gut für damaligen mehrschirm-betrieb. die FX war auch hinreichend schnell, wenn man wochenlang am bios geschraubt hat und die karte unter wakü auf 600MHz prügelte. dann konnte sie die 9800XT in benchmarks schlagen und man hatte halt noch das gute AF und die mehrschirm- bzw. openGLtauglichkeit. mit jedem neuen spiel wurde aber SM2 zum totschlag-argument.



(..)

mfg
tobi

Razor
2006-10-03, 12:39:42
Du fandest es also plausibel, als er noch GeForce-FX-Karten in den Himmel lobte, welche ja auch zweifellos eine gute AF-Quali hatten, aber du findest es nicht plausibel, wenn er ein Produkt lobt, das neben der guten Bildquali auch mehr Speed liefert?

"Mehr Speed" halte ich angesichts der Preise und der damit zu vergleichenden Produkte für eine Mär!

Die Bildqualität von nVidia und ATI sind vergleichbar, wenn auch mir ATI noch immer 'zu dunkel' ist... aber das erwähnte ich wohl einige male zu oft... stört mich halt jedes mal, wenn ich mir eine ATI auf meinem kalibrierten TFT antun muss. Der einzige Vorteil bei ATI ist das wu-AF, welches allerdings auch nur auf die allerletzte Generation zutrifft... übler weise gepaart mit der Notwenidigkeit, schlichtweg ALLE 'Optimierungen' abzuschalten, welches leider auch für GameFixes gilt... ein Unding. Und gepaart mit gewaltiger Ineffizienz und daraus resultierender, unerträglicher "Lautheit".

DAS wären mir zu viele Kompromisse.

Gut, dass ich schon vor geraumer Zeit eine 7900GT angeschafft habe... auch wenn der Standard-Lüfter Müll war... OK, dafür hat sie auch nur 200 Mücken gekostet. Seit über einem Jahr nahezu absolute Problemlosigkeit und für meine Bedürfnisse mehr als ausreichende Performance (gerade jetzt umso mehr ;-).

HEUTE würde ich mir weder ATI noch nVidia zulegen!

In nicht einmal 1,5 Monaten kommt zumindest eine ganz neue Generation von nVidia, die ich mir erst einmal anschauen werde... und sollte das nichts werden, dann bleibt ja evtl. noch die R600... aber nur, wenn sie das mit dem Panel endlich hinbekommen (ein Armutszeugnis an die Programmierer!) und vor allem der Möglichkeit, die 'Optimierungen' separat zu schalten... so wie bei nVidia jetzt. Und... ach ja... bei den MultiMon-Funktionalitäten könnten sie ruhig auch noch mal zulegen... damals waren sie führend, heute hinken sie orgdentlich hinterher!

Razor

P.S.: ...so, gehe jetzt erst mal meine Freundin von Flohmarkt holen!
(an einem Tag, wie heute schon um 6 Uhr aufstehen, ist echt hart ;-)

Ronny G.
2006-10-03, 12:54:48
Ich bin wahrscheinlich der toleranteste User hier.
Ich hatte bis jetzt immer NV und als ich damals die 7900GT haben wollte und sie nirgends verfügbar war habe ich halt ne X1800GTO genommen, in der hoffnung sie freischalten zu könnnen, nix war - dafür aber eine geiles OC-verhalten.
Result war eine schweinegeile ATI-Karte, war locker auf XT-Level unterwegs.
Was ich aber in den ~monaten ATI niemals nutzte war 6xAA oder gar HDR+AA, ging meist einfach nicht vernünftig, wozu halt dieser kram??

Mit den Treibern muß ich leider auch zustimmen, habe bei NV nie probleme mit treibern gehabt, bei der ATI leider schon, die installation ging öfters mal schief und dann den ganzne mist wieder restlos entfernen und und und, auch haben sie es bis 6.9er nicht geschafft AA+HDR zu vernküpfen.
Die Qualität ist auch nicht mehr das Problem, einfach bei NV auf HQ schalten und fertsch, selbst so können die NV mithalten.

Mal ehrlich bis auf das vieleicht bald HDR+AA in Reality hat eine ATI null vorteile gegenüber einer NV, wer nutzt bitte schön 6xAA?

Und zum stromverbrauch selbst eine 7900GTX brauch nicht viel mehr strom als eine x850XT, genauer gesagt 12% mehr unter last aber wiederum fast 30W weniger als ne x1800XT und ganze 61Watt weniger als ne X1900XTX!

TobiWahnKenobi
2006-10-03, 12:55:57
Die Bildqualität von nVidia und ATI sind vergleichbar, wenn auch mir ATI noch immer 'zu dunkel' ist... aber das erwähnte ich wohl einige male zu oft...
sorry Razor, aber das ist sicher ein vorurteil. wenn ich den NV-rechner und den ATI-rechenr an meinem haupt-TFT betreibe und den eingang umschalte, siehst du bei 9300K (meine einstellung) keinen unterschied.
stört mich halt jedes mal, wenn ich mir eine ATI auf meinem kalibrierten TFT antun muss.
das klingt schlimm und wenn es hier auch so wäre, würde ich dir beipflichten - aber ich bemerke es nicht.
Der einzige Vorteil bei ATI ist das wu-AF, welches allerdings auch nur auf die allerletzte Generation zutrifft... übler weise gepaart mit der Notwenidigkeit, schlichtweg ALLE 'Optimierungen' abzuschalten, welches leider auch für GameFixes gilt... ein Unding.
ähm.. einspruch. ich habe noch nie auf AI verzichten müssen, um ein gutes bild zu bekommen. mit sowas spielt man vielleicht für tests rum, aber wenn du einfach nur grieseln, flackern und kanten ruhig bekommen willst, reicht es AA einzuschalten und HQAF zu verwenden.
Und gepaart mit gewaltiger Ineffizienz und daraus resultierender, unerträglicher "Lautheit".
was hältst du an der X1000er serie für ineffizient? dass das topmodell für irgendwas zw. 350 und 400 GFLOP/s hundert watt leistung braucht? das brauchen beide IHVs (NV mit der GX2 und ATI mit der XTX).

DAS wären mir zu viele Kompromisse.

kann ich verstehen, aber vielleicht ist das ein oder andere etwas anders, als du es atm verstehst bzw. auffasst/ dir vorstellst.

@treiberfraktion
das gespiele bei den treibern entfällt bei ATI - das stimmt. allerdings hatte ich mit nvidia-treibern immer wieder irgendwelche sorgen. wenn es nicht im einfachen spiel war, dann war es das SLi-profil, der mehrschirmbetrieb (nview) oder das overlay (gammaregler etc.) - irgendwas gab es immer zu mosern. zur zeit läuft alles auf dem hauptrechner (Chuck 6.8) - auf der anderen kiste allerdings auch (FW92.91).
meine suse läuft nicht beschleunigt - aber da bin ich auch zu dumm, den treiber einzubinden (egal, ob ATI oder NV).



(..)

mfg
tobi

Ronny145
2006-10-03, 13:00:47
Und zum stromverbrauch selbst eine 7900GTX brauch nicht viel mehr strom als eine x850XT, genauer gesagt 12% mehr unter last aber wiederum fast 30W weniger als ne x1800XT und ganze 61Watt weniger als ne X1900XTX!


Und im Idle? Wie lange zockst du am Tag?

TobiWahnKenobi
2006-10-03, 13:02:29
Mal ehrlich bis auf das vieleicht bald HDR+AA in Reality hat eine ATI null vorteile gegenüber einer NV, wer nutzt bitte schön 6xAA?

eigentlich jeder, der eine X1900XTX hat. verglichen mit NVs 8xS ist 6xAA wenigstens überall nutzbar.

ich spiele bf2 in 1280x1024 pixeln, mit 6x AA und vsync.


(..)

mfg
tobi

Ronny145
2006-10-03, 13:07:38
eigentlich jeder, der eine X1900XTX hat. verglichen mit NVs 8xS ist 6xAA wenigstens überall nutzbar.

ich spiele bf2 in 1280x1024 pixeln, mit 6x AA und vsync.


(..)

mfg
tobi



Irgendwie hast du den Namen vertauscht. Ich habe das nicht geschrieben.

The_Invisible
2006-10-03, 13:07:38
naja.. hohe qualität und nvidia sind mit DX9 im gleichen kontext (für mich) ein widerspruch.

ohne frage. ich fand an meiner 79GTX auch nur den kühler gut. nur ist mir ein kühler nicht den verzicht auf features wert. für einen zweitrechner hat die GTO aber einen optimalen preis. dafür ist sie sicher klasse. beim haupt-zock-PC würde ich lieber ein paar euronen drauflegen und weniger kompromisse eingehen.


(..)

mfg
tobi

darum bin ich auch bei nvidia, weil ich keine komprmisse mit treiber, linux und opengl eingehen möchte. kauft wegen dieser aussage jetzt jeder ne nvidia? nein...

ich hoffe das versteht jeder, nicht das wieder so ein (gast) fanboygeblabere hinterherkommt.

mfg

Ronny G.
2006-10-03, 13:08:38
Ihr haut hier was durcheinander mit euren Zitaten.

Ja im Idle sieht es wieder etwas anders aus, obwohl der G71 dann auf süße 275Mhz herunter taktet verbraucht er mehr als ne X1900:| aber noch leicht weniger als ne X1800XT, komische sache.

Man sollte bei solchen Karten davon ausgehen das sie auch zum Zocken genutzt werden, bei mir trifft das wohl nicht immer so zu:redface:

The_Invisible
2006-10-03, 13:09:43
Und im Idle? Wie lange zockst du am Tag?

wenn man karten dieses kalibers kauft darf man davon ausgehen das sie mehr für spiele als office gebraucht wird

mfg

TobiWahnKenobi
2006-10-03, 13:11:10
Irgendwie hast du den Namen vertauscht. Ich habe das nicht geschrieben.

geändert.


(..)

mfg
tobi

Ronny145
2006-10-03, 13:14:10
wenn man karten dieses kalibers kauft darf man davon ausgehen das sie mehr für spiele als office gebraucht wird

mfg



Deine Aussage ergibt keinen Sinn im Endeffekt. Denn das kann zutreffen, aber wielange der PC am Tag an ist weißt du nicht.




Man sollte bei solchen Karten davon ausgehen das sie auch zum Zocken genutzt werden, bei mir trifft das wohl nicht immer so zu:redface:


Ach ne...eine Stunde?

TobiWahnKenobi
2006-10-03, 13:17:57
hmm..

ich zocke sicher auch weniger, als dass ich mit der kiste andere sachen mache, aber wenn man das jetzt objektiv betrachtet, bietet ATI noch VIVO, was den einsatzbereich der karte ausserhalb von spielchen zusätzlich erweitert.
dass bei NV an videoeingängen gespart wird, bemängle ich ja schon seit gefrosch6.


(..)

mfg
tobi

Ronny G.
2006-10-03, 13:18:31
manchmal sogar garnicht, manchmal mehrere stunden, baue deswegen aber nicht meine Karte aus.(zocken)

Verwunderlich finde ich nachwievor den hohen verbrauch unter Idle! Das obwohl der GPU mit schnucklichen 275Mhz taktet?

The_Invisible
2006-10-03, 13:33:14
Deine Aussage ergibt keinen Sinn im Endeffekt. Denn das kann zutreffen, aber wielange der PC am Tag an ist weißt du nicht.

solange man kein filesharing kiddy ist darf man davon ausgehen das der pc nur rennt wenn man auch was macht, und in nen office pc baut man keine highendkarte ein

mfg

Unknown Soldier
2006-10-03, 14:05:51
Es wär nett wenn ihr mit 1,2 Worten schreiben welche Karte Ihr nehmen würdet?
schon mal danköö

Rente
2006-10-03, 14:09:32
Es wär nett wenn ihr mit 1,2 Worten schreiben welche Karte Ihr nehmen würdet?
schon mal danköö
Sie nehmen sich beide nicht viel, unübertaktet ist die GTO langsamer hat aber 512MB VRam, allerdings gibt es für etwa 50€ mehr noch XTs mit 512MB.

Der Lüfter der GTO ist deutlich leiser, der Stromverbrauch ist niedriger, ATi-Karten bieten HQ-AF, HDRR+AA und sind bei shaderlastigen Spielen im Vorteil (zumindestens die X19xx).

Ich würde ehrlich gesagt bis Dezember warten, dann kommt der G80, wenn du allerdings jetzt eine neue Karte brauchst würde ich sehen eine X1900XT mit 512MB "günstig" zu bekommen und ihr einen leiseren Lüfter verpassen, wenn das für dich nicht in Frage kommt dann bleibt wohl nur die GTO übrig.

Gast
2006-10-03, 14:14:27
das war ich *4711*

Deine Angriffs Beiträge intressieren hier kein.Das du das warst brauchst nicht mit dein namen zu kennzeichnen das wissen wir auch so.

Rente
2006-10-03, 14:20:10
@razor: du sprichst mir aus der Seele

beispiel alternate:
512MB Sapphire Radeon X1900XTX: 359.-
512MB MSI NX7900GTO-T2D512E: 239.-

etwas mehr als 45€.

jetz kommt der nächste und schreibt: "www.geizhalts.at", kauf bei Hans-Huber, da kosten beide 20-30 euro weniger!
Wenn man Geizhals nicht richtig nutzen kann tut es mir Leid:

7900GTO - http://www.1deins.de/index.php?kategorieId=&artikelId=VGAP51-MS1315 - lagernd - 254€
X1900XT512 - http://www.alternate.de/html/shop/productDetails.html?artno=JBXY02&artno=JBXY02& - lagernd - 289€

Das macht wie viel? Genau 35€! Die GTO ist, zumindestens bei Geizhals, günstiger nicht mehr lagernd und falls man vor der Entscheidung steht kann man sicherlich die 35€ auch noch zusammen kratzen, nur der Lüfter ist dann noch ein Problem...

Achso, wer hat eigentlich von XTX gesprochen? Die ist genauso sinnlos wie die XT-PEs zu X8xx-Zeiten, die höheren Taktraten macht sicherlich fast jede XT mit.

StefanV
2006-10-03, 14:38:55
ATI und nVidia geben sich hinsichtlich der Performance derzeit fast nichts... einmal ist der eine schenller, mal der andere.
Für das Spielen aktueller Games (und derer die noch kommen werden) reichen beide vollkommen aus.
Eben, weswegen sich noch 'ne nV Karte zum zocken kaufen, wenn man bei ATi ein besseres Paket bekommt?!
u.A. besseres AF, FSAA ist bei ATi auch besser, wofür gibts da noch Gründe für nV bei Gamern?!


Wer auf "KlickiBunti" im resourcenfressenden .NET-CCC von ATI steht und auf die wohl derzeit beste MultiMon-Funktionalität am Markt verzichten möchte, darf gerne zu ATI greifen.
Au mann, klingt wie von nVs PR Abteilung vorgekaut :ugly:
Sorry, aber das ist nur Blödsinn, was du hier faselst, hast wohl in letzter Zeit kein CCC mehr gesehen, was?!

PS: kann man bei nV den Deinterlacing Modus wählen, im Treiber?!

Desweiteren solltest du auch erwähnen, das die Navigation im neuen nV Panel recht mühsam ist, das ganze irgendwie auch nicht so recht schön ist, im Gegensatz zum CCC, wo man alles auf den ersten BLick hat...

Wer auf Effizienz setzt und wem 'Ruhe' wichtig ist, dabei aber auf die ultimative Filterqualität ala GeForce3+ verzichten kann (OK, müssen ATI-User derzeit auch noch immer ;-) und zudem noch ein bissel Knete sparen will, setzt eben auf nVidia.
Muss man nicht verstehen :|

Aber war bei dir schon immer so :rolleyes:

Ach, wie wars noch bei Oblivion, sind da nicht ATI Karten deutlich schneller, wg. besserer Effizienz? :uponder:
Die Bildqualität von nVidia und ATI sind vergleichbar, wenn auch mir ATI noch immer 'zu dunkel' ist...
Einbildung oder die Karte war nicht ganz OK :rolleyes:


ich hoffe das versteht jeder, nicht das wieder so ein (gast) fanboygeblabere hinterherkommt.
Jaja, das böse F-Wort. :rolleyes:
Wie wars nochmal mit der Benutzung dieses Wortes, welche Kategorie User benutzt es?! :rolleyes:

Es wär nett wenn ihr mit 1,2 Worten schreiben welche Karte Ihr nehmen würdet?
schon mal danköö

Die ATI, bietet einfach das bessere Paket -> ViVo ist immer dabei, der Kühler ist auch nicht so schlimm, wie von einigen Usern gesagt wird und auch bei den Funktionen ist die ATi besser.
Und wenn dir langweilig ist, kannst ja den F@H Client auf der ATi laufen lassen, was bei nV ja nicht geht, aufgrund einigen 'eigenschaften'

The_Invisible
2006-10-03, 14:50:30
mr. "anti NV" persönlich im thread, ich lach mich immer weg was da für ein müll geschrieben wird, ich will es garnicht näher kommentieren :biggrin:

mfg

Gast
2006-10-03, 15:13:15
Es wär nett wenn ihr mit 1,2 Worten schreiben welche Karte Ihr nehmen würdet?
schon mal danköö
Mal meine Entscheidungsüberlegungen:
ATI:
- Leistung leicht höher
- geile DB-Performance, die ich brauchen könnte
- leicht bessere Bildqualität
- Standardkühler unbrauchbar und Wakü braucht Kühler für SpaWa (=70€)
NV:
- schon sehr guter Kühler drauf
- günstiger (für 225€ inkl bestellt)
- NVPerfKit und NVPerfHUD *sabber* (da muss ATI mehr als dringend was nachlegen)
- nicht wesentlich langsamer

-> NV mit den besseren Pluspunkten für mich

StefanV
2006-10-03, 15:23:58
- Standardkühler unbrauchbar und Wakü braucht Kühler für SpaWa (=70€)
Das ist ziemlicher Blödsinn, so übel ist der Kühler nicht, außerdem hat man bei ATi volle Kontrolle über die Spannung, z.B. per BIOS oder Win Software...
Siehe dazu auch diesen Faden...

Ganz so übel, wie hier einige tun ist der Kühler der x1800/1900 ganz und garnicht!!

Gast
2006-10-03, 15:31:46
Das ist ziemlicher Blödsinn, so übel ist der Kühler nicht, außerdem hat man bei ATi volle Kontrolle über die Spannung, z.B. per BIOS oder Win Software...
Siehe dazu auch diesen Faden...
Wenn ich bei einer neuen Karte anfangen muss Bios zu modden und Kühler zu wechseln... Vorallem wenn man eine Alternative zur Verfügung hat, kommt das für mich nicht in Frage.
Hauptentscheidungskriterium waren für mich aber eh die Performanceanalysetools. Hier gibts bei ATI nur ein großes schwarzes Loch mit dem man sich bei Entwicklern keine Freunde macht. ;)

StefanV
2006-10-03, 15:32:34
Und wer spricht hier von Entwicklern?!
Sorry, Gast, aber hier konstruierst du echt was, um ja nicht zur ATi raten zu müssen...

Und außerdem sind die Lüfter bei besseren ATi Karten temperaturgesteuert, sprich wenn man für etwas Wind richtung GraKa sorgt, sollt man die Temperatur etwas senken können, womit man auch die Lautstärke senken könnte...

Gast
2006-10-03, 15:32:34
Ganz so übel, wie hier einige tun ist der Kühler der x1800/1900 ganz und garnicht!!

Der Kühler ist auch nicht übel, muss aber rund 120 Watt Wärmeenergie aus dem Gehäuse schaffen und dafür braucht er ab und an mal 4 Sone und mehr.

Das ist meßtechnisch belegt - brauchst also gar nicht ankommen mit "wie einige hier tun". Und wenn das wen stört, dann kann das eben mal ein KO-Kriterium sein. Besonders wenn man bei einem 600-DM-Teil nicht mal eben die Garantie wegwerfen will und das Ding ab Tag 1 moddet.

Gast
2006-10-03, 15:37:22
Au mann, klingt wie von nVs PR Abteilung vorgekaut :ugly:
Sorry, aber das ist nur Blödsinn, was du hier faselst, hast wohl in letzter Zeit kein CCC mehr gesehen, was?!

[...]

Desweiteren solltest du auch erwähnen, das die Navigation im neuen nV Panel recht mühsam ist, das ganze irgendwie auch nicht so recht schön ist, im Gegensatz zum CCC, wo man alles auf den ersten BLick hat...

1. Was hat sich am Skin und Design des CCC in den letzten, sagen wir mal, zehn Treiberversionen verändert? Nichts grundlegendes - und man braucht noch immer .NET-FX.

2. Mit den Unterschied, dass das ätzende neue NV-Panel optional ist - keiner muss es benutzen. Man braucht nichtmal einen inoffiziellen Mod-Treiber für das alte Panel...

StefanV
2006-10-03, 16:11:31
1. Was hat sich am Skin und Design des CCC in den letzten, sagen wir mal, zehn Treiberversionen verändert? Nichts grundlegendes - und man braucht noch immer .NET-FX.

2. Mit den Unterschied, dass das ätzende neue NV-Panel optional ist - keiner muss es benutzen. Man braucht nichtmal einen inoffiziellen Mod-Treiber für das alte Panel...
1. Oh, .NET ist ja auch so böse, schande über ATi :ugly:
Sorry, aber das ist Blödsinn, zumal hier kaum gegen MFC oder Java gepoltert wird, aber MFC merkt man ja idR auch nicht, bringt die Anwendung mit :ugly:
Außerdem kann man ja auch noch Skin + Splashscreen deaktivieren, dann ists um einiges besser...

2. Das nV Panel ist _NICHT_ Optional, wenn man Vista benutzt...
Außerdem wirkt die Vista Version vom ATi Panel um einiges ausgereifter und kompletter, da kann man sogar FSAA einstellen!
Und auch ansonsten ist das neue nV Panel ein gewaltiger Rückschritt, wo das CCC von ATi um einiges fortschrittliche ist als das alte CP, welches man auch kaum mehr hätte erweitern können...

The_Invisible
2006-10-03, 16:22:06
wenn ich nicht immer 10sec warten müsste bis das ccc aufgeht könnte ich deiner aussage sogar was abgewinnen...

mfg

StefanV
2006-10-03, 16:27:17
Der Kühler ist auch nicht übel, muss aber rund 120 Watt Wärmeenergie aus dem Gehäuse schaffen und dafür braucht er ab und an mal 4 Sone und mehr.

Das ist meßtechnisch belegt - brauchst also gar nicht ankommen mit "wie einige hier tun". Und wenn das wen stört, dann kann das eben mal ein KO-Kriterium sein. Besonders wenn man bei einem 600-DM-Teil nicht mal eben die Garantie wegwerfen will und das Ding ab Tag 1 moddet.
In dem Falle dürft der Zalman FB123 äußerst Hilfreich sein :devil:

@The_Invisible
Ich hab 2-3 Sekunden, nach wissenschaftlichen Methoden, gemessen...
Sag mal, warum musst du so dermaßen übertreiben und versuchen, ihn zwanghaft von der ATi zu überzeugen?!

The_Invisible
2006-10-03, 16:37:13
ich denke mal der letzte satz war nicht an mich gerichtet

ansonsten: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4829720&postcount=45

schon klar, ist keine highendmaschine, aber selbst das neue cp von nvidia geht da in 2-3sec auf

mfg

Gast
2006-10-03, 16:38:42
Und wer spricht hier von Entwicklern?!
Sorry, Gast, aber hier konstruierst du echt was, um ja nicht zur ATi raten zu müssen...
Mal meine Entscheidungsüberlegungen:
Ich hab nur dargelegt warum ICH mir die GTO bestellt hab.

@Payne
Eigentlich dachte ich du wärst mit der Zeit reifer geworden, nachdem du ja früher übelster NV-Fanboy warst und zwischendurch sehr vernünftig warst.
Offensichtlich bist du jetzt in die andere Richtung rückfällig und übersiehst in deinem Wahn, dass jeder für sich selbst rausfinden muss, welche die richtige Karte für ihn ist. Stattdessen kommt nur eine blinde Empfehlung für ATI von dir.

@andere: Wenn ihr vor einer Kaufentscheidung steht, stellt euch eine Liste von Argumenten für/wider einer Karte auf, bewertet für EUCH die Wichtigkeit und entscheidet danach. Nur diese Argumente kann man sich in einem Forum gut holen, aber eine Entscheidung trifft ein vernünftiger Mensch für sich selbst.

Ronny G.
2006-10-03, 17:51:07
Man bekommt also für 224€ ne GTX, wo man quasi nur noch den Schieberegler auf 800Mhz Speichertakt stellen muß. Und trotzdem soll ich mir für 50€ mehr nen Staubsauger mit massig Hitzeentwicklung kaufen? Nu ist aber gut, wenn man jetzt Leute zu ihrem Glück zwingen muß entscheiden also andere Dinge über Hop oder Top! Es geht hier schon längst nicht mehr um das bessere P/L-Produkt sondern um Fangelaber!

Dann kauft halt ne X1900 für unnötig viel Geld, vielleicht braucht der eine oder andere "Preisbewusste" danach noch nen neues NT, wie ich damals bei meiner X1800:wink: Und em ende vielleicht noch einen leiseren Lüfter damit man auch ohne Staubsaugerfeeling zocken kann. So, und nun rechnen wir alles zusammen und fallen wie Schneewittchen in den Zauberschlaf, und warten wann der Prinz kommt und uns aus unsere Traumwelt befreit. Leute Leute nun ist mal gut hier.

Hier werden Argumente genannt die keine sind, es brauchte bis jetzt keiner AA+HDR, zumindest konnte es keiner nutzen, aber es wird damit geworben das ATI das kann, aber in Wirklichkeit in keinen offiziellen Treiber integriert hat. Und wer Games in 6xAA zockt hat auch den Vogel abgeschossen, das ist wie 200km/h mit angezogener Handbremse zu fahren.

Die ganze Diskusion ist so, also ob ich behaupten würde das der X2 nen besseres Preisleistungverhältnis als ein C2D hätte, was ja nicht stimmt aber .....

Ronny145
2006-10-03, 17:52:52
Man bekommt also für 224€ ne GTX, wo man quasi nur noch den Schieberegler auf 800Mhz Speichertakt stellen muß.


Wirklich ein sehr guter Preis. Kannst du mal bitte einen link dazu geben?

Ronny G.
2006-10-03, 17:59:18
von Ronny zu Ronny ;D
Wer zu spät kommt den bestraft das leben!
Es müssen momentan eh alle warten, die nächste Lieferwelle kommt erst noch, wie sich dann der Preis entwickeln könnte ist nicht voraussehbar, tendiert aber schon zum anstieg.
Bei der X1900XT sieht es genauso schlecht aus, sind maximal welche um die 300€ Lieferbar.

Vega2002
2006-10-03, 18:02:35
Bei der X1900XT sieht es genauso schlecht aus, sind maximal welche um die 300€ Lieferbar.

Aber sie sind lieferbar :) ...

Würde die x1900xt genauso viel kosten, dann würde ich diese nehmen allerdings bei rund 240€ bietet die 7900gto viel Leistung für weniger Geld.

Wenn ich überlege, so hab ich die Wakü eigentlich nur wegen der x1800xt gekauft ;) ... ne ne wollte schon nen leises Sys. :)

VoodooMaster
2006-10-03, 18:08:47
Möchte nur mal ganz kurz hier Aufgreifen das Razor recht hat mit dem was er schreibt, die Ati treiber sind überladen und brauchen immer noch das NET Paket was mir echt unverständlich ist. Zudem sind ATI Karten von Werk aus etwas dunkler (gamma) gestellt als NV. Das konnte ich bisher bei meiner Hercules 9800 Pro und meiner ATI Lösung (1150X)in meinem neuen Notebook gut beobachten. Etwas an der Gamma gespielt und ATI wird genauso "hell" wie NV.

Zudem sind die ATI Treiber vor allem wenn man etwas langsamere Hardware hat "sehr lahm" bis mein CCC auf dem Notebook aufgeht vergehen schon mal 30 Sekunden. Und das mein ATI Ordner 433 MB Schluckt ist mir ein Rätsel aber das ist ja schon ein anderes Thema.

Ronny G.
2006-10-03, 18:09:20
Ich habe jetzt auch noch ne Waküblock da liegen, nur hat der irgendwie sein Daseinberechtigung verloren. Ist meine erst Graka wo definitiv der Originale Kühler drauf bleiben wird, in Games wird die GPU nicht wärme als 62°C, klar im Atitool 3d-test kommt man auf ~70°C, aber immerhin bei 710Mhz und 759Mhz Geotakt.

TobiWahnKenobi
2006-10-03, 18:17:11
Man bekommt also für 224€ ne GTX, wo man quasi nur noch den Schieberegler auf 800Mhz Speichertakt stellen muß. Und trotzdem soll ich mir für 50€ mehr nen Staubsauger mit massig Hitzeentwicklung kaufen?
kaufen kannst du was immer du willst. nur der über-den-tellerrand-gucker kauft beides und guckt sich beides an. wenn du meinst, dass die GTOs alles GTXen sind, nur weil sie so aussehen, dann kennst du grafikkarten-hersteller schlecht und gehst sehr naiv vor. richtiger wäre es immer davon auszugehen, dass man das bekommt, was man bezahlt. alles andere ist spekulation.

Dann kauft halt ne X1900 für unnötig viel Geld, vielleicht braucht der eine oder andere "Preisbewusste" danach noch nen neues NT, wie ich damals bei meiner X1800 Und em ende vielleicht noch einen leiseren Lüfter damit man auch ohne Staubsaugerfeeling zocken kann. du sollst das ding ja auch nicht in einen komplett-barebone setzen, wo die lüftung schlecht und das NT genau berechnet ist. in zeiten wo jeder ein NT oberhalb 400W einsetzt, sollte dieses thema eigentlich obsolet sein. keine grafikkarte, die auf 80 oder 90°C GPU temp unter last kommt fühlt sich ein einem schlechtgelüftetem case oder einem komplett-PC von der stange wohl.

Hier werden Argumente genannt die keine sind, es brauchte bis jetzt keiner AA+HDR, zumindest konnte es keiner nutzen, aber es wird damit geworben das ATI das kann, aber in Wirklichkeit in keinen offiziellen Treiber integriert hat.
ähm.. ich kann es komischerweise nutzen, seit ich eine x1900xtx im system habe. nicht nutzen konnte ich es vorher - auf einer 7900GTX. in oblivion z.b. fallen einem unter HDRr auf der NV-karte die augen ab, weil die kontrastreichen kanten so flimmern. das gibts mit AA nicht.
Und wer Games in 6xAA zockt hat auch den Vogel abgeschossen, das ist wie 200km/h mit angezogener Handbremse zu fahren.
das erklär' doch bitte mal genauer. ich fahre zwar nicht bei 200+ km/h mit der handbremse, aber oberhalb 200km/h bewege ich mich hin und wieder ganz gern. was das allerdings mit dem battlefield2-spielen @6xAA mit HQAF und nativer TFT auflösung inkl. vsync @70Hz zu tun haben soll, entzieht sich meiner auffassungsgabe.. also erkläre mal bitte.


(..)

mfg
tobi

Ronny G.
2006-10-03, 18:38:29
zu 1.
Es sind sehr sehr viele Fälle bekannt wo sie locker auf GTX-Nivau und mehr kommt, schätze mindestens 90%, alleine das sollte einem das Risiko wert sein.

zu 2.
das erzähl mal einem User der eben nur ne gute Grafikkarte für wenigst Geld sucht, all das kann man sich ersparen wenn man eben keine Heizkarte kauft.

zu 3.
Warum wirbt ein Hersteller damit wenn man es garnicht offiziell nutzen kann?

zu 4.
es ist eben eine Art sein Game unnötig auszubremsen obwohl keinen lohnenden unterschied zu 4xAA sieht und somit ein Argument in die Welt zu rufen was keines ist.

edit: ich bin kein ATI-Feind, war mit meiner X1800 sehr zufrieden und bin auch traurig das sie nicht mehr geht, aber ich bin ein Realist geblieben und habe mich dementsprechend entschieden.

4711
2006-10-03, 18:38:40
Zitat von Ronny G.
Hier werden Argumente genannt die keine sind, es brauchte bis jetzt keiner AA+HDR, zumindest konnte es keiner nutzen, aber es wird damit geworben das ATI das kann, aber in Wirklichkeit in keinen offiziellen Treiber integriert hat.

ähm.. ich kann es komischerweise nutzen, seit ich eine x1900xtx im system habe. nicht nutzen konnte ich es vorher - auf einer 7900GTX. in oblivion z.b. fallen einem unter HDRr auf der NV-karte die augen ab, weil die kontrastreichen kanten so flimmern. das gibts mit AA nicht.

Das Fimmern was du da anspricht habe ich nicht mit der GX²!
Das ist absolut "DUMMES GESCHWÄTZ" und war für mich zb.ein Grund die ATI zu verkaufen denn da hat es gefimmert ohne Ende bei HRR+AA in Oblivion..ich glaube ab dem 6.2er Cat.
Du solltest einfach im ATI Forum bleiben..dein Geschreibsel denk ich geht hier jedem mitlerweile auf den Keks!

Gast
2006-10-03, 18:46:53
1. Oh, .NET ist ja auch so böse, schande über ATi :ugly:
Sorry, aber das ist Blödsinn, zumal hier kaum gegen MFC oder Java gepoltert wird, aber MFC merkt man ja idR auch nicht, bringt die Anwendung mit :ugly:
Außerdem kann man ja auch noch Skin + Splashscreen deaktivieren, dann ists um einiges besser...

2. Das nV Panel ist _NICHT_ Optional, wenn man Vista benutzt...
Außerdem wirkt die Vista Version vom ATi Panel um einiges ausgereifter und kompletter, da kann man sogar FSAA einstellen!
Und auch ansonsten ist das neue nV Panel ein gewaltiger Rückschritt, wo das CCC von ATi um einiges fortschrittliche ist als das alte CP, welches man auch kaum mehr hätte erweitern können...

1. Viele mögen Dot-Net nunmal aber nicht und das kann also ein Grund sein.

2. Oh ja - Vista. Ein Beta-OS - sorry, RC1+, was sich bestimmt jeder von uns gerade auf die Platte knallt.

Sorry, Stefan Payne, aber deine Argumente wirken wieder einmal äußerst "bemüht".

4711
2006-10-03, 18:52:06
Net hin oder her..brauch kein Mensch,stört aber auch keinen...wenn die Kleinen zb. Encarta haben möchten muß es auch drauf...hört auf mit Net,völlig wurscht und muß absolut nicht erwähnt werden wenn es um die Qualli von GraKas geht..wie so einiges andere auch.
99% der NV Käufer nutzen nHancer...was sagt uns das...zb.

Gast
2006-10-03, 18:52:32
1. Viele mögen Dot-Net nunmal aber nicht und das kann also ein Grund sein.
Höchstens weil sie nicht wissen was .NET überhaupt ist. Ein Grund ists einfach nicht.

Betatreiber für ein BetaOS sind natürlich kein Argument. Möglicherweise hat man dank NV80 da auch bald wesentlich bessere Treiber.

StefanV
2006-10-03, 18:56:25
Möchte nur mal ganz kurz hier Aufgreifen das Razor recht hat mit dem was er schreibt, die Ati treiber sind überladen und brauchen immer noch das NET Paket was mir echt unverständlich ist. Zudem sind ATI Karten von Werk aus etwas dunkler (gamma) gestellt als NV. Das konnte ich bisher bei meiner Hercules 9800 Pro und meiner ATI Lösung (1150X)in meinem neuen Notebook gut beobachten. Etwas an der Gamma gespielt und ATI wird genauso "hell" wie NV.

Zudem sind die ATI Treiber vor allem wenn man etwas langsamere Hardware hat "sehr lahm" bis mein CCC auf dem Notebook aufgeht vergehen schon mal 30 Sekunden. Und das mein ATI Ordner 433 MB Schluckt ist mir ein Rätsel aber das ist ja schon ein anderes Thema.
Sorry, aber das .NET Argument ist ein ziemlich dämliches, getreu dem Motto wenn einem weiter nichts mehr einfällt...
Gibt auch noch andere Programme, die .NET benötigen, z.B. nLite, wer auch noch behauptet, das .NET schlimm sei, hat einfach keinen Plan...
Was soll .NET?!
Ganz einfach, eine einheitliche Schnittstelle schaffen, für Windows Applikationen und mit allerhand 'altem Schrott' aufräumen.
Das ganze gabs auch vorher schon, die MFC DLL wird wohl auch jeder kennen...
Aber klar doch, das .NET Framework ist von M$, das _MUSS JA BÖSE SEIN_...

Das 'interessante' dabei ist, das das ganze von den Leuten als 'böse' bezeichnet wird, die garkeinen Plan haben bzw eher nVidia Grakas bevorzugen und Argumente gegen ATi benötigen...

J0ph33
2006-10-03, 19:00:10
mmmh....wenn man SLI nutzt, ist der nhancer pflicht, sagen immer alle, der braucht aber auch .net, beschwert hat sich noch keiner....

ich hab das CCC schon seit ner halben ewigkeit nicht mehr aufgemacht, man kann die bildqualitäts-einstellungen sehr bequem per systray-icon vornehmen...

auf meiner X1800XT sitzt ein GTX-Lüfter, lautlos und ausreichend kühl...

HDR+AA ist ein segen, unverzichtbar, wie ich finde, dagegen mit hitze und multimonitor-support zu argumentieren ist imo lachhaft...

4711
2006-10-03, 19:10:02
HDR+AA > Das wäre ein Argument wenn es alle Spiele könnten!
Und deshalb genau so Sinnfrei wie das Geschwätz über Net!

StefanV
2006-10-03, 19:11:51
Man bekommt also für 224€ ne GTX, wo man quasi nur noch den Schieberegler auf 800Mhz Speichertakt stellen muß.
Sorry, aber diese Argumentation ist ziemlich bescheuert!
Nochmal, für dich:
Man kauft etwas, weils im Auslieferungszustand besser ist
Wenn ich jetzt böse wäre, würd ich sagen, das du dir irgendwas so zurechtbiegst, wie es dir gerad passt, ich könnte auch das böse F-Wort oder das ebenso unschöne N-Wort gebrauchen, denn diese Leute empfehlen eher mal irgendwas zu kaufen und es außerhalb der vorgesehenen Spezifikationen/Umgebung zu betreiben...


Und trotzdem soll ich mir für 50€ mehr nen Staubsauger mit massig Hitzeentwicklung kaufen? Nu ist aber gut, wenn man jetzt Leute zu ihrem Glück zwingen muß entscheiden also andere Dinge über Hop oder Top! Es geht hier schon längst nicht mehr um das bessere P/L-Produkt sondern um Fangelaber!
Also ein Staubsauger ists nicht, so laut, wie du (und andere) tust, ists nun wirklich nicht.
Zumal deine empfehlung sicherlich nicht wirklich leiser sein wird...

Dann kauft halt ne X1900 für unnötig viel Geld, vielleicht braucht der eine oder andere "Preisbewusste" danach noch nen neues NT, wie ich damals bei meiner X1800:wink: Und em ende vielleicht noch einen leiseren Lüfter damit man auch ohne Staubsaugerfeeling zocken kann.
Achso, weil du Probleme mit deiner x1800 hattest, müssens andere auch haben?!
Weil bei dir das NT nicht reichte, muss es bei anderen auch so sein?!
Seltsam, bei mir ging die x1800XT/256MB mit meinem tollen, 300W HEC-300LR...
Hab aber auch 'nur' einen Single Core K8...

Und was er sich kauft, ist immer noch seine Sache, zumal deine Empfehlung nicht unbedingt besser sein muss als eine x1900XT....

So, und nun rechnen wir alles zusammen und fallen wie Schneewittchen in den Zauberschlaf, und warten wann der Prinz kommt und uns aus unsere Traumwelt befreit. Leute Leute nun ist mal gut hier.
Sprichst du gerad von dir? :naughty:

Und was gibts da zu rechnen?
Das eine x1900XT ev. das bessere Paket bieten könnte?!
Das man sie übertakten, aber auch untertakten kann??
Das noch 'ne Menge Luft nach unten ist, von der Spannung??

Hier werden Argumente genannt die keine sind, es brauchte bis jetzt keiner AA+HDR, zumindest konnte es keiner nutzen, aber es wird damit geworben das ATI das kann, aber in Wirklichkeit in keinen offiziellen Treiber integriert hat.
Es brauchte auch niemand SM2, als es kam, es brauchte niemand FSAA, als die Voodoo5 das brachte, es brauchte niemand AF, es brauchte niemand Pixelshader.

Und heute bietet JEDE Karte Pixelshader, auch wenn mans nicht bräuchte, jede Karte beherrscht FSAA, auch wenn mans u.U. nicht nutzen kann, sorry, aber das ist echt an den Haaren herbeigezogen, zumal das ein recht sinnvolles Feature ist, das man u.U. auch nutzen kann...

Und wer Games in 6xAA zockt hat auch den Vogel abgeschossen, das ist wie 200km/h mit angezogener Handbremse zu fahren.

Nein, das trifft eher auf die zu, die meinen ihrer Weg wäre der einzig richtige...

Wenn man sich solch teure Karten kauft, dann doch nicht, um damit bei 800x600 mit 1x FSAA und 1°AF zu zocken!!

Die wo sich 'ne x1950XTX kaufen, _WOLLEN_ mit FSAA zocken, auf 'nem großen Schirm, wozu sollt man sich das Kärtchen denn sonst kaufen?!
Zum Benchmarking um irgendwo anzugeben?!

DAS tun die wenigsten, die sich solche Karten kaufen...

Die ganze Diskusion ist so, also ob ich behaupten würde das der X2 nen besseres Preisleistungverhältnis als ein C2D hätte, was ja nicht stimmt aber .....
Klar hat der X2 ein besseres P/L Verhältnis, denn die Plattform dafür ist weitaus günstiger...

Nicht jeder möchte 'nen C2D haben, sei es weils für ihn keine brauchbaren Bretter gibt oder weiß der Geier was, ist immer die Entscheidung von demjenigen, nicht deine.

The_Invisible
2006-10-03, 19:36:38
Net hin oder her..brauch kein Mensch,stört aber auch keinen...wenn die Kleinen zb. Encarta haben möchten muß es auch drauf...hört auf mit Net,völlig wurscht und muß absolut nicht erwähnt werden wenn es um die Qualli von GraKas geht..wie so einiges andere auch.
99% der NV Käufer nutzen nHancer...was sagt uns das...zb.

nhancer benutze ich immer genau einmal bei nem neuen treiber um die unnötigen sli profile zu löschen, für fsaa/af benutze ich atuner, würden alle inoffiziellen aa modi auch im treiber verfügbar sein würde ich garkein externes tool verwenden

mfg

VoodooMaster
2006-10-03, 20:01:30
Mensch Stefan selbst mit 100.000 Beiträgen kannst du einem "Razor" nicht das Wasser reichen, auch wenn du es permanent versuchst, deine Halbwissen Theorien hier lesen zu müssen ist eine Qual, du hast echt von nichts eine Ahnung.

Demnach wie du dich hier im Forum aufführst, musst du im reallife wohl die schlechte Karte gezogen haben.

Gönn dir doch mal eine Pause und geh schlafen, denn es gibt noch ein reallife neben dem 3DC!. Meiner Ansicht nach bist du der größte ATI Fanboy hier im Forum, keine Frage eine 1900XT ist sehr schnell aber auch sehr laut!, eine GTO higegen flüsterleise.

Das Net Paket ist einfach nur Sinnlos, vor allem wenn man es nicht zur Hand hat um das CCC zu installieren, der ATI Treiber ist groß und lahm, ein NV Treiber ist dem ATI Treiber meilenweit voraus. Woher ich das weiß, auf meinen Knien arbeitet hier eine ATI Mobile Lösung!

Gast
2006-10-03, 20:12:37
Also derzeit würde ich nur zu NV greifen, da mir der stromverbrauch -unter last- zu arg ans limit meines netzteils kommen würde, und die zusätzliche hitze im gehäuse ist natürlich etwas nachteilig falls du CPU übertakten willst.

sind aber wohl eher einzelfälle..

ich weiß nicht wie sehr sich die ATI im gehäuse bemerkbar macht, aber wenn du OC denke ich hat man bei nV das bessere produkt.

KaKÅrØT
2006-10-03, 20:14:12
ein mann ein wort !! :wink: @ voodoo master

Ronny G.
2006-10-03, 20:55:13
@Stefan

ja ich spreche von mir, und um das anderen evtl. zu ersparen rate ich momentan zur 7900GTO, man muß sich keine sorgen um ein evtl. zu schwache NT machen, keinen anderen Kühler verbauen, hat ein allgemein kühleres System und eine der stärksten(Top5) Singlekarten auf dem Markt für weit weniger Geld als bei einer X1900XT.
Wenn man dann noch den Taktregler nach rechts schiebt spielt man noch eine Kategorie höher mit, was will man mehr?
Nebenbei behält man auch noch seine Garantie weil man den Kühler nicht anrühren brauch.

Wenn man allerdings 6xAA und gleichzeitig HDR genießen will, auch über Umwege, sollte man halt eine weit wärmere X1900XT nehmen die gerne mal über "kühle" 90°C wandert und dabei noch ordentlich mehr Strom braucht, dabei auch garantiert wahrgenommen wird.

TobiWahnKenobi
2006-10-03, 21:27:36
Das Fimmern was du da anspricht habe ich nicht mit der GX²!
Das ist absolut "DUMMES GESCHWÄTZ" und war für mich zb.ein Grund die ATI zu verkaufen denn da hat es gefimmert ohne Ende bei HRR+AA in Oblivion..ich glaube ab dem 6.2er Cat.
Du solltest einfach im ATI Forum bleiben..dein Geschreibsel denk ich geht hier jedem mitlerweile auf den Keks!

ich mache was viel besseres - ich ignoriere dein GX2 geschwafel und stelle morgen abend mal zwei videos ins netz. mit deiner kack-flimmer-grafik und mit meiner flimmerfreien ATI-HDRr-darstellung.

toll nicht, was ich für möglichkeiten habe.. ?!


(..)

mfg
tobi

Ronny G.
2006-10-03, 21:28:43
wird dann ne neue erkenntnis folgen?

TobiWahnKenobi
2006-10-03, 21:31:07
natürlich. ist völlig an den haaren herbeigezogenes (=erlogenes) geschwafel, was 4711 hier zum besten gibt.. ihm sollte mal jemand erzählen, dass er mit seinem 7900GT-SLi kärtchen die gleiche flimmergrafik in TES4 unter HDRr hat, wie jeder andere NV user auch. schnuppe ob er sein geld in eine, in zwei oder in vier GPUs versenkt.

in c't 15/2006 auf Seite 80 steht zwischen den zeilen das gleiche - da hatten wir das thema auch schon am wickel.. mit ner GX2.


(..)

mfg
tobi

The_Invisible
2006-10-03, 21:32:44
ihr mit euren schei* flimmern immer, ob die kanten jetzt mit oder ohne fsaa flimmern braucht man wirklich net als video zu beweisen, das sollte wohl jedem klar sein

mfg

TobiWahnKenobi
2006-10-03, 21:35:54
scheinbar ist es nicht jedem klar und da man die unterschiede nur in bewegung sieht, sind videos wohl ein probates mittel, die schläfer zu wecken. gegen windmühlen quatschen nervt nämlich.


(..)

mfg
tobi

Ronny G.
2006-10-03, 21:42:06
ich finde die Flimmergeschichte auch alt, wir wissen doch nun alle was fakt ist.

4711
2006-10-03, 21:47:31
scheinbar ist es nicht jedem klar und da man die unterschiede nur in bewegung sieht, sind videos wohl ein probates mittel, die schläfer zu wecken. gegen windmühlen quatschen nervt nämlich.


(..)

mfg
tobi

vergiß es hatten wir doch schon..........und wenn ich mit meiner x1900 irgendwo dicht ran gegangen bin (HDR*AA) hats geflimmert wie Harry,da beist die Maus keinen Faden ab!
Es ist schon ein unterschied wenn ich irgendwo lang laufe oder dicht an ein Objekt..Treppe etc.rangehe.. gelle..vergiß es..braucht auch nix hochzuladen..freu dich für deine Karte und gut ist...und immer schön die Augen schließen sonst kommt der pöse Fielman.
Zum Glück muß ich mir im mom keine Gedanken um irgendwelches Flimmern machen..hab ja keines und schon garnett in HDR+AA ;D

Gast
2006-10-03, 21:59:01
Schön für dich das du deine GX2 vertedigst,das hilft hier leider aber keinen weiter...

4711
2006-10-03, 22:08:52
nein mach ich gar nicht,ich schreibe nur das was ich sehe....ansonsten hab ich morgen wieder ne x1900er drinn..denn mir isses vollkommen wurst ob die Dinger Rot oder Grün oder Gelb mit blauen Punkten sind.
Und auf die farblosen vermatschten Videos ala superduber ATI Software Avivo Gedöhns kann ich schon dreimal verzichten.

ach ja ehe ichs vergesse
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4835465&postcount=59

*M@D*
2006-10-03, 22:11:12
Nur interessehalber, spielt ihr mit euren Superrechnern eigentlich auch oder wird nur gebencht um sich dann in einem Forum heiß zu reden :uconf: :D

Was solls, ohne euch wär es nicht so amüsant hier ;)

4711
2006-10-03, 22:18:16
naja,machen wir wenigsten einen glücklich..aber wenns dich beruhigt so ca.3Std.am Tag zock ich,am WE auch mal 5 Std am Stück...FLIMMERFREI!
Ansonsten muß ich mich hier mit Tobi rumzanken,aber beim G80 haben wir ihn ja wieder ;D
Aber nun ist schluß mit OT sonst bekommen wir einen über.

DeutscherHerold
2006-10-03, 22:40:19
ich mache was viel besseres - ich ignoriere dein GX2 geschwafel und stelle morgen abend mal zwei videos ins netz. mit deiner kack-flimmer-grafik und mit meiner flimmerfreien ATI-HDRr-darstellung.

toll nicht, was ich für möglichkeiten habe.. ?!


(..)

mfg
tobi

Kennst du Wayne? Ruf den mal an, der interessiert sich dafür!

Gast
2006-10-03, 22:49:49
ich mache was viel besseres - ich ignoriere dein GX2 geschwafel und stelle morgen abend mal zwei videos ins netz. mit deiner kack-flimmer-grafik und mit meiner flimmerfreien ATI-HDRr-darstellung.

toll nicht, was ich für möglichkeiten habe.. ?!


(..)

mfg
tobi

Redest du jetzt von Flimmern wegen nicht geglätteter Kanten oder Flimmern wegen unterfilterter Texturen?


Q

KaKÅrØT
2006-10-03, 23:04:01
ERM?? vom thema ab??

glaube das ati-nvidia shit hatten wir genug oft durch

fakt ist das die 7900gto ne gute karte zum guten preis ist! und jemand wollte halt leistungstechnisch wissen was fakt ist...

ati und vidia haben vor und nachteile , aber mich nervt es wenn leute sich immer auf irgendwas herausreden ob ati aa+hdr oder nvidia das flimmern... ;D


aber egal , schau gern weiter zu , also go on ;)

mfg

The_Invisible
2006-10-03, 23:26:09
ich finde eher das wir das überschlafen sollten, morgen sieht die welt schon wieder anders aus :D

mfg

Gast
2006-10-04, 00:03:40
ich finde eher das wir das überschlafen sollten, morgen sieht die welt schon wieder anders aus :D

mfgSo sehe ich das auch, den Morgen sieht die Welt anders aus und die Karte heißt dann 7900OTG ..ist sie den schneller als? :biggrin:

NUR SPASS

Gast
2006-10-04, 00:25:05
natürlich. ist völlig an den haaren herbeigezogenes (=erlogenes) geschwafel, was 4711 hier zum besten gibt.. ihm sollte mal jemand erzählen, dass er mit seinem 7900GT-SLi kärtchen die gleiche flimmergrafik in TES4 unter HDRr hat, wie jeder andere NV user auch. schnuppe ob er sein geld in eine, in zwei oder in vier GPUs versenkt.

in c't 15/2006 auf Seite 80 steht zwischen den zeilen das gleiche - da hatten wir das thema auch schon am wickel.. mit ner GX2.


(..)

mfg
tobi

Das ich dich Tobiwahnkenobi (alias beschleunigen) mal als ATI Fanboy erleben darf, hätte ich mir in meinem Leben nicht träumen lassen. Das ist ja eine 180° Kehrtwendung. Wo sind nur die Beiträge "NVIDIA baut die schnelleren Chips und auf HQ+Optimierungen aus flimmert nichts" außerdem hat NVIDIA SLI und das ist sowieso besser als alles andere" geblieben?

NV hat BQ Mängel (HDR+AA und Flimmern) und die 7900GTO ist für 224-240€ dennoch ein verlockendes Angebot.

mfG jemand aus dem Hardwareluxx Forum

TobiWahnKenobi
2006-10-04, 08:14:36
Redest du jetzt von Flimmern wegen nicht geglätteter Kanten oder Flimmern wegen unterfilterter Texturen?

im falle von oblivion von kantenflimmern wg. erhöhtem kontrastumfang im HDRr-betrieb und wg. fehlender kantenglättung.

Wo sind nur die Beiträge "NVIDIA baut die schnelleren Chips und auf HQ+Optimierungen aus flimmert nichts" außerdem hat NVIDIA SLI und das ist sowieso besser als alles andere" geblieben?

in der dekade, in der es noch keine HDRr-spielchen gab. was willst du mit den SLi-möglichkeiten (massive AA-modi), wenn du sie wg. architekturbedingten einschränkungen nicht einsetzen kannst..


(..)

mfg
tobi

Gast
2006-10-04, 08:43:38
im falle von oblivion von kantenflimmern wg. erhöhtem kontrastumfang im HDRr-betrieb und wg. fehlender kantenglättung.


Ich glaube, da braucht's keine Videos - wer wabernde Kanten aufgrund von nicht vorhandenem AA nicht sieht, der will sie nicht sehen. Oblivion sieht auf Ati, nachdem das Schattenproblem gefixt wurde, wirklich deutlich besser aus, als auf Nvidia.


Q

Gast
2006-10-04, 11:16:08
Ich spiele Oblivion nicht mit HDR da ich kein AA einsetzen kann!
Das sich einige immer für besonders schlau halten müssen...
*4711*

Gast
2006-10-04, 11:19:35
Zitat von Gast
Wo sind nur die Beiträge "NVIDIA baut die schnelleren Chips und auf HQ+Optimierungen aus flimmert nichts" außerdem hat NVIDIA SLI und das ist sowieso besser als alles andere" geblieben?


in der dekade, in der es noch keine HDRr-spielchen gab. was willst du mit den SLi-möglichkeiten (massive AA-modi), wenn du sie wg. architekturbedingten einschränkungen nicht einsetzen kannst..

wegen einem Spiel......zb.was ich spiele.....>Deine Antworten sind kräftig an den Haaren herbeigezogen!
Das Video von Raff mal gesehen....
Du bist einfach nur noch lächerlich in Deinen Aussagen,ein Kiddy von 11 Jahren auf dem Schulhof kann nicht schlimmer sein.

TobiWahnKenobi
2006-10-04, 11:51:30
wegen einem Spiel......zb.was ich spiele.....>Deine Antworten sind kräftig an den Haaren herbeigezogen!
Das Video von Raff mal gesehen....
Du bist einfach nur noch lächerlich in Deinen Aussagen,ein Kiddy von 11 Jahren auf dem Schulhof kann nicht schlimmer sein.

auch wenn ich eigentlich auf gast-postings nicht eingehe, kannst du ja nochmal in zwei quellen blättern. eine habe ich schon genannt (c't 15/2006 S.80 zum Thema GX2) und die andere ist das aktuelle heft (21/2006, S. 136-138 zum Thema Graka-Oberklasse).

den rest des postings verstehe ich nicht, aber das ist bei Gast-postings auch nicht tragisch. ich spiele atm TES4 und COJ mit AA+HDR. sicher gibt's noch andere games, aber GRAW hab' ich nicht und FC ist mir bereits über..

games, die kein HDRr unterstützen zocke ich idR. mit 6xAA und HQ-AF.


(..)

mfg
tobi

Sven77
2006-10-04, 12:26:20
spaetestens wenn man die karten noch zu was anderem als zocken brauch, faellt die ATI weg.. grottige OpenGL unterstuetzung, und probleme mit fast allen 3D-Paketen. sogar die FireGL wird da gemieden wie der teufel das weihwasser...

Johnny
2006-10-04, 13:19:00
Hallo, ich habe vor einign Tagen den Wechsel von einer HIS X1900XT IceQ3 auf die 7900GTO vollzogen. Der Grund für den Verkauf war der schlechte IceQ3 Kühler - also die X1900XT bei ebay reingestellt und auf X1950XTX wart...bis die esrsten Meldungen über den X1950XTX-Kühler eingetroffen sind (zusammengefasst: schlimmer als IceQ3).
Letztendlich habe ich mich für die GTO entschieden. Im dierekten Leistungsvergleich 7900GTO-X1900XT(512MB) @Stock behaupte ich einfach mal, trotz diverser Reviews, daß die beiden Karten absolut gleichwertig sind. Desweiteren musste feststellen, das die NVidia-Karte im unteren FPS-Bereich sich wesentlich "flüssiger" anfühlt als die ATI(natürlich subjektiv gesehen). Übertaktet zieht die GTO natürlich davon. Von dem Kühler rede ich jetzt gar nicht. Das einzige was mich stört ist der NV-Treiber(CP), da fand ich das CCC doch wesentlich besser. Ich finde jedoch, daß die ganze Treiberdiskussion absolut sinnlos ist, denn es ist wie mit den Frauen: die einen stehen auf blond, die anderen auf brünet. Letztendlich muss ich zugeben (obwohl ich ein "ATI-Fanboy" bin), daß jeder der sich zur Zeit eine GraKa zulegen will und nicht zur 7900GTO greift verschenkt entweder Leistung oder Geld.

PS.: zu HDR+AA und der Flimmerproblematik kann ich noch folgendes sagen:
HDR+AA interessiert mich nicht(habe dieses auch mit meiner X1900 nicht genutzt), da ich das HDR an sich zimlich hässlich finde.
Das Flimmern ist mir leider nicht (oder auch zum Glück) aufgefallen. Leider musste ich aber einen Performanceunterschied von Q->HQ feststellen, in FEAR sind es bis zu 10%.

Ronny G.
2006-10-04, 13:52:33
Und nun habe ich auch noch den Test wo die 7900GTX gegen die X1900XTX antritt, da ist die 7900GTX in fast allen Benches(außer COD2) deutlich schneller als die X1900XTX.
Jetzt werden wieder manche meinen das der Auslieferungsstand der GTO bestand hat, aber seit doch mal ganz ehrlich, wer verschenkt Kostenlose Leistung?
Also greift zu, ich hoffe das bald mal wieder ne Lieferung in GER eintrifft.

Sieg der 7900GTO über die X1900XT
http://www.hkepc.com/bbs/hwdb.php?tid=678406&tp=geforce7900gto-msi&rid=678406

Sieg der 7900GTX(schafft fast jede GTO) über die X1900XTX
http://www.hardtecs4u.com/reviews/2006/x1900_7900/

TobiWahnKenobi
2006-10-04, 14:33:11
naja - wer weiss was die da gemessen haben. in userem test mit FEAR, COD2, TES4 und PREY gibt es nicht ein setting zwischen 1280x960 noAA/8xAF und 1600x1200 4xTAA, 8xAF in der sich die probanden (7900GTX, X1900XTX, X1950XTX) um mehr als 2-5fps unterscheiden (S.137 c't 21/2006). die reine "leistung" in bezug auf absolute frames ist also vergleichbar.

FW in unserem test: 91.47
CAT in unserem test: 6.8


(..)

mfg
tobi

vinacis_vivids
2006-10-04, 14:39:28
Die haben fast ausschließlich die mit der Doom3-Engine gebencht (D3, Quake, Riddick). Die anderen Engines sind auch eher älter und nicht sehr shaderlastig. Von daher is das Ergebnis wohl klar.

PCGH_Carsten
2006-10-04, 14:58:16
Riddick nutzt Starbreeze, keine id-Engine.

Gast
2006-10-04, 15:02:03
Nur weil ein Test das schreibt muss es nicht gleich wahr sein abwarten!.

pr0g4m1ng
2006-10-04, 15:27:42
7900gto und X1900xt 256 sind IMO nur interessant, wenn sie bei 200€ liegen: Ab 250€ bekommt man schon 7950GT und bald wohl auch die X1950 Pro.

Unknown Soldier
2006-10-04, 15:42:15
7900gto und X1900xt 256 sind IMO nur interessant, wenn sie bei 200€ liegen: Ab 250€ bekommt man schon 7950GT und bald wohl auch die X1950 Pro.

:confused: sind aber beide schlechter als die 7900gto und ide 1900xt

=Floi=
2006-10-04, 15:44:52
die 7900GTO ist schneller wie eine 7950GT

Unknown Soldier
2006-10-04, 15:49:49
wenn des eine Frage ist dann JA

LovesuckZ
2006-10-04, 18:43:10
[...] wenn du sie wg. architekturbedingten einschränkungen nicht einsetzen kannst..
mfg
tobi

Dafür muss der Käufer mit anderen Einschränkungen leben.
Er bekommt in ein, zwei Spielen AA und HDR - Lighting, hat aber in den anderen Spielen eine deutliche Lärmquelle neben sich zu "stehen" oder eine Backofen im Gehäuse, wenn die Drehzahl gesenkt wurde.
Deswegen ist die Entscheidung für die bessere Bildqualität, und damit für die ATi - Karte, eben nicht so einfach, wenn ich dann auf Kopfhörer angewiesen bin.

StefanV
2006-10-04, 20:15:56
Sorry, LS, aber die x1800XT ist deutlich leiser als z.B. eine FX5900 mit Referenzkühler, entspricht von der Lautstärke her etwa einer 6800...

Quasar
2006-10-04, 20:31:52
Sorry, LS, aber die x1800XT ist deutlich leiser als z.B. eine FX5900 mit Referenzkühler, entspricht von der Lautstärke her etwa einer 6800...
Um welche Karte geht's in dem Thread hier noch gleich? ...

Ronny G.
2006-10-04, 22:41:19
um eine GTO die man meist in ne GTX wandeln kann, so wie meine, das Bios funktioniert prächtig.

http://foto.arcor-online.net/palb/alben/69/1887469/1280_3534663739643464.jpg:biggrin:

TobiWahnKenobi
2006-10-04, 23:23:09
@Lovesucks

das thema lärm hatten wir schon. das ist nunmal abhängig um umfeld und wie xmal erwähnt: in meiner wasserkühlkiste, hörst du sie nicht heraus - in der tonlage ist der quirl auf meinem NF4 störender - da musst du schon unter den tisch kriechen oder das case offen lassen. kopfhörer setze ich bei meiner anlage hier sicher nicht auf beim zocken ;)


(..)

mfg
tobi

Ronny G.
2006-10-04, 23:32:51
@TobiWahnKenobi

deine Signatur zum Thema Flimmern ist doch nicht ernstgemeint, oder? Ist das deine Bestimmung? Keine anderen Sorgen?

LovesuckZ
2006-10-04, 23:33:43
@Lovesucks
das thema lärm hatten wir schon. das ist nunmal abhängig um umfeld


Lärm lässt sich messen. ;)
Ansonsten kann ich mit dieser Argumentation aus die These "Die ATi Karte hat die bessere Bildqualität, da es möglich ist mit AA und HDR-Lighting zu spielen", entkräftigen.
Nicht jeder spielt diese Spiele. So wie der Käufer mit einem lautem "Standardsystem" seine X1900"sonstwas" nicht hört, so braucht jener vor einer schlechteren Bildqualität keine Angst haben.

TobiWahnKenobi
2006-10-04, 23:50:34
angst muss davor sowieso keiner haben und wenn du die meinung vertrittst, dass keine weiteren HDRr-spiele mehr erscheinen oder dass das vielleicht eine untergeordnete rolle spielt, so ist das halt deine meinung. an den fakten od. der realität ändert das nichts.

erinnert ein bisschen an die schwachsinnsdiskussion, ob SM3 besser ist als SM2.

was spielt "man" denn so auf aktueller hardware, wenn nicht grad die aktuellsten games?


(..)

mfg
tobi

Quasar
2006-10-05, 00:43:19
Ich spiele zum Beispiel gerade Vampire: The Masquerade Bloodlines. Ein selten geiles Games und das sogar trotz der ganzen Bugs.

StefanV
2006-10-05, 00:51:02
Nicht jeder spielt diese Spiele. So wie der Käufer mit einem lautem "Standardsystem" seine X1900"sonstwas" nicht hört, so braucht jener vor einer schlechteren Bildqualität keine Angst haben.
Ach, jetzt auf einmal ist 'Technologischer Fotschritt' Blödsinn :rolleyes:

Darf ich dich dran erinnern, das die neueren Spiele fast ausschließlich mit HDR Support kommen, so zum Bleistift Spellforce 2...

J0ph33
2006-10-05, 01:09:42
für mich würden sich folgende fragen stellen:

1. Kann ich etwas effizientes gegen den lärmpegel einer X1800 XT tun? antwort: JA!

2. Kann ich irgendetwas gegen den nV-Makel "fehlendes HDR+AA" machen? antwort: NEIN!

da ich sehr viel oblivion gespielt habe (ich freute mich wie ein kleines kind, als der chuck endlich rauskam), wäre auch aus heutiger sicht die sache für mich klar...

r@w.
2006-10-05, 09:50:40
mr. "anti NV" persönlich im thread, ich lach mich immer weg was da für ein müll geschrieben wird, ich will es garnicht näher kommentieren :biggrin:

Ohne Kommentar!
:D

99% der NV Käufer nutzen nHancer...

"Das glaube ich nicht, 'Tim'!"
;)

@.NET

Ich 'brauche' es schlicht und ergreifend nicht.
Und ich sehe es nicht ein, mir für einen Grafiktreiber eine monströse Runtime installieren zu müssen...

Dass es noch andere Argumente gegen .NET gibt, steht ausser Frage:
- MicroSchrott-Abhängigkeit
- "RapidDevelopment" wird gepusht und es kommt so ein 'Müll', wie das CCC von ATI heraus
('Müll' im Sinne von Resourcen-Hunger, Performance-Verlusten und 'Langsamkeiten' in der Oberfläche)
...und noch einiges andere, was hier aber zu weit führen würde

nhancer benutze ich immer genau einmal bei nem neuen treiber um die unnötigen sli profile zu löschen, für fsaa/af benutze ich atuner, würden alle inoffiziellen aa modi auch im treiber verfügbar sein würde ich garkein externes tool verwenden

Ich benutze UltraEdit VOR der Installation der Treiber und 'brauche' so etwas, wie nHancer gar nicht.
Allerdings steht ausser Frage, dass nHancer für die kleine Gruppe an SLI-Usern äusserst nützlich sein kann.

...mit deiner kack-flimmer-grafik...

Was für eine äusserst 'beeindruckende' Formulierung.
Dem zuvor gesagten ist somit nichts hinzu zu fügen...

Sorry, LS, aber die x1800XT ist deutlich leiser als z.B. eine FX5900 mit Referenzkühler, entspricht von der Lautstärke her etwa einer 6800...

Und eine FX5800 ist unter 2D leiser als ALLE anderen Karten... mal abgesehen, von anderen anderen Passiv-Lösungen. Sorry, Payne, aber merkst Du eigenlich noch was? Du vergleichst Karten aus Generationen, die locker 2 Jahre auseinander liegen? Zu allem Überfluss hat das von Dir gesagte aber auch rein gar nichts mit dem Thread-Thema zu tun. Zumal die "Kühler-Bindung" zu Zeiten der FX'en und der ersten 6x00 noch keinesfalls so 'stark' war, wie heute... damals konnte man sich die präferierte Kühllösung einfach aussuchen... und wenn ich mich da so an meine gute alte MSI FX5900 mit "Sonnenkühler" oder die Leadtek 6800LE mit wuchtigem Küpferkühler erinnere... da war der Referenzkühler der X1800 ein Witz!

Um welche Karte geht's in dem Thread hier noch gleich? ...

Das frage ich mich allerdings auch... aber typisch ists für Payne ja schon, Dinge an den Haaren herbei zu ziehen, wenn ihm seine pseudo-Argumente 'ausgehen'...

Ich finde es nur äusserst schade, dass Tobi sein ursprünglicher Diskussionsstil so dermaßen 'entglitten' ist.
Vielleicht ändert sich das ja wieder, wenn er einen G80 in die Hände bekommt...
Die Hoffnung stirbt zuletzt!

OK, der letzte Absatz war jetzt reichlich OT... sorry.

Razor

LovesuckZ
2006-10-05, 09:58:59
an den fakten od. der realität ändert das nichts.

Wenn ich mir PES 6 auf der Xbox 360 angucke, ich gleichzeitig weiß, dass KONAMI primär ein Konsolenentwickler ist, behaupte ich einfach ganz dreist, dass die PC kein HDR-Lighting unterstützen wird.
Dieses Beispiel soll nur verdeutlichen, dass potenzielle "Must-Have" Spiele eben nicht die neuesten Technologien untersützen müssen.
Dagegen arbeitet der Lüfter in diesem Spiel, welcher auf einer X18/9xx nicht schöner aussehen wird, mit einer höheren Lautstärke.
Die Realität ist eben nicht nur 0/1. ;)

was spielt "man" denn so auf aktueller hardware, wenn nicht grad die aktuellsten games?


Zur Zeit spiele ich Anstoss 3 und "The Bard's Tale" auf meiner 7900GT (550/800) mit 512MB Grafikspeicher. Dank Sparkle höre ich nur meine Festplatten.

Vertigo
2006-10-05, 10:23:48
Dass es noch andere Argumente gegen .NET gibt, steht ausser Frage:
- MicroSchrott-Abhängigkeit
- "RapidDevelopment" wird gepusht und es kommt so ein 'Müll', wie das CCC von ATI heraus
('Müll' im Sinne von Resourcen-Hunger, Performance-Verlusten und 'Langsamkeiten' in der Oberfläche)
...und noch einiges andere, was hier aber zu weit führen würde

:uclap:
- Microsoft-Abhängigkeit? Einen Windows-XP-User (.NET ist ja exklusiv für Windows) wird das wohl kaum noch anheben ...
- Wo bitteschön kostet das CCC Performance? In Spielen definitiv nicht. Alternativ gibt es auch ein schönes Tray-Icon, falls das CCC für dich "zu überladen" ist. Oder ATI Tools, ATI Tray Tools, ...

... und wenn ich mich da so an meine gute alte MSI FX5900 mit "Sonnenkühler" oder die Leadtek 6800LE mit wuchtigem Küpferkühler erinnere... da war der Referenzkühler der X1800 ein Witz!

Das frage ich mich allerdings auch... aber typisch ists für Payne ja schon, Dinge an den Haaren herbei zu ziehen, wenn ihm seine pseudo-Argumente 'ausgehen'...


Payne zieht alte Karten heran und argumentiert belanglos wie immer, aber Du machst es ja gerade auch nicht viel anders ... :|

Es ging hier doch mal um die Frage, ob die 7900GTO schneller sei als die X1900XT 256MB und genau das ist sie eben nicht. OC-Potential hin, leiser Kühler und niedrige Verlustleistung her.

Tatsache ist nunmal das die Unterschiede fps-mäßig zwischen nVidia und ATI in praktisch allen Preisklassen nicht der Rede wert sind. Das merkt man ja auch daran, dass die Diskussionen hier sich primär um die Lautstärke der Lüfter und die Leistungsaufnahme drehen, was für einige sicher Hygienefaktoren sind, sonst würde man ja wohl nicht krampfhaft versuchen die schlechtere Bildqualität (AF, MSAA) der aktuellen nVidia-Generation wegzudiskutieren.

Tatsächlich ist die MSI 7900GTO aber ein Preis-/Leistungsknaller, ebenso wie die X1900XT 256MB. "Leiser und kühler" gegen "schöner". Die Wahl sei jedem selbst überlassen.

AnarchX
2006-10-05, 10:36:13
Es ging hier doch mal um die Frage, ob die 7900GTO schneller sei als die X1900XT 256MB und genau das ist sie eben nicht.

Wirklich? ;)
http://www.hkepc.com/bbs/hwdb.php?tid=678406&tp=geforce7900gto-msi&rid=678406

Vertigo
2006-10-05, 10:42:47
Wirklich? ;)
http://www.hkepc.com/bbs/hwdb.php?tid=678406&tp=geforce7900gto-msi&rid=678406
Wirklich! ;)
Siehe PCGH 11/2006 S.38ff.

AnarchX
2006-10-05, 10:45:16
Wirklich! ;)
Siehe PCGH 11/2006 S.38ff.

Quelle steht gegen Quelle...;)
Aber wie schon gesagt sind beides gute Karten, und man sollte je nach Präferenz wählen.

Vertigo
2006-10-05, 10:51:27
Quelle steht gegen Quelle...;)
Aber wie schon gesagt sind beides gute Karten, und man sollte je nach Präferenz wählen.
Gaynau. :up:

Ich finde diese Diskussionen ohnehin absolut lächerlich. Mal ist die eine Karte 10% vorn, mal die andere. Was die B-Note (Treiber, Bildquali, Lüfter, Verlustleistung, PCB-Farbe, ...) angeht, soll jeder selbst entscheiden was ihm wichtiger ist.

TobiWahnKenobi
2006-10-05, 10:55:15
Zitat:
Zitat von TobiWahnKenobi
...mit deiner kack-flimmer-grafik...

Was für eine äusserst 'beeindruckende' Formulierung.
Dem zuvor gesagten ist somit nichts hinzu zu fügen...

aber hervorragend passend.


(..)

mfg
tobi

PCGH_Carsten
2006-10-05, 11:02:28
Quelle steht gegen Quelle...;)
Aber wie schon gesagt sind beides gute Karten, und man sollte je nach Präferenz wählen.
Ich vermute, HKEPC testeten mit Treiber-Default. PCGH testet immer mit Nvidia-Treiber@HQ. Außerdem kamen andere Spiele zum Einsatz. Bei uns waren es AoE3, Prey, NfS:MW und HL2:EP1. :)

Ronny G.
2006-10-05, 11:18:15
Ich were mir heute mal die Ausgabe holen, ist eh höchste Zeit.

Gerade in zeiten wo fast jede Sau übertaktet und sogar schon tools beigelegt werden und auf der Packung geworben wird, warum sollte man da das allgemeine OC-potential nicht mit beachten?
Den da sieht es für die XT sehr duster aus, da rückt die kleine GTO gleich mal ne klasse höher.
Oder sagte jemand bei ner X800GTO2 das sie eigentlich keine 16pipes hat, obwohl alle fleisig geflasht haben? Bei ner 6800LE das gleiche.

Vertigo
2006-10-05, 11:20:51
Ich were mir heute mal die Ausgabe holen, ist eh höchste Zeit.

Gerade in zeiten wo fast jede Sau übertaktet und sogar schon tools beigelegt werden und auf der Packung geworben wird, warum sollte man da das allgemeine OC-potential nicht mit beachten?
Den da sieht es für die XT sehr duster aus, da rückt die kleine GTO gleich mal ne klasse höher.
Oder sagte jemand bei ner X800GTO2 das sie eigentlich keine 16pipes hat, obwohl alle fleisig geflasht haben? Bei ner 6800LE das gleiche.
PCGH gibt bei den Tests auch immer das OC-Potential ihrer Testmuster mit an. Es gab auch schon reichlich Tests OC gg. Standardtakt. Aber wer will für alle Karten das OC-Potential garantieren? Du?

Ronny G.
2006-10-05, 11:26:51
Nein das kann keiner, aber nen Durchschnitt ist durchaus drin, immerhin haben ja bis jetzt fast alle Karten den GTX Takt geschafft, kenne bis jetzt nur eine Ausnahme - ob es da allerdings 100pro an der Karte lag weiß ich nicht.

Was kam den bei der PCGH als OC-takt herauß?

PCGH_Carsten
2006-10-05, 11:35:49
Im Heft: "nichts", da es sich um einen so genannten Chipsatz-Test handelte. OC-Ergebnisse gibt es nur bei Einzeltests. Die Karte ging aber bis 700/835 MHz stabil.

Vertigo
2006-10-05, 11:36:46
Nein das kann keiner, aber nen Durchschnitt ist durchaus drin, immerhin haben ja bis jetzt fast alle Karten den GTX Takt geschafft, kenne bis jetzt nur eine Ausnahme - ob es da allerdings 100pro an der Karte lag weiß ich nicht.

Was kam den bei der PCGH als OC-takt herauß?
Eine 7900GTO war nicht als Karte getestet, nur 7950GT/7900GS ...

EDIT: Tja, wer zu langsam ist, steht doof da ... :redface:

Ronny G.
2006-10-05, 11:43:02
na weiter oben steht doch da sie die Karte getestet haben, was nu?

Vertigo
2006-10-05, 11:45:24
na weiter oben steht doch da sie die Karte getestet haben, was nu?
Im Artikel "neue nVidia-Chips", S.38f, ist eine 7900GTO dabei. Nicht aber in der Marktübersicht "7950GT und 7900GS", S.40ff. Nur in der Marktübersicht wird das OC-Potential der Testmuster (Herstellerkarten) mit angegeben.

Ronny G.
2006-10-05, 11:47:48
ahh, danke.

Power
2006-10-05, 12:27:02
Quelle steht gegen Quelle...;)
Aber wie schon gesagt sind beides gute Karten, und man sollte je nach Präferenz wählen.

Und das PCGH sehr stark zu ATI schwankt ist auch schon seit Jahren bemerkbar seit aber ATI nun von AMD geschluckt wurde auch deutlich erkennbar ;-)

Vertigo
2006-10-05, 12:31:16
Und das PCGH sehr stark zu ATI schwankt ist auch schon seit Jahren bemerkbar seit aber ATI nun von AMD geschluckt wurde auch deutlich erkennbar ;-)
Weil Dir die reproduzierbaren und plausiblen Benchmarkergebnisse samt objektiv analysierbarer Bildqualitätsvergleiche nicht in den Kram passen? :|

Man erinnere sich an den Launch der X800- und 6800-Serien in 2004. Da hat man ATI aufgrund mangelnder Innovationen deutlich kritisiert. Selbst die X1800/X1900 hätte laut PCGH "mehr zeigen müssen, um den 3D-Thron für sich zu beanspruchen." (freies Zitat aus meiner Erinnerung). Deine Behauptung ist absolut unhaltbar!

TobiWahnKenobi
2006-10-05, 12:36:25
dass ein magazin zu hersteller XY schwankt oder tendiert halte ich für ein nicht haltbares vorurteil. markenverliebtheit oder befangenheit kann sich kein unabhängiges magazin leisten.


(..)

mfg
tobi

Monsta
2006-10-05, 13:05:34
Was micht wundert. Sobald Nvidia ne neue Karte rausbringt werden die Alten mit jeder neuen Treiberversion langsamer. Da wird nix mehr an der alten Karte optimiert. Vergleicht doch mal heute ne 5900ultra gegen ne 9800xt oder x850xt gegen ne 6800Ultra. Wo früher ein fast Gleichstand war ist jetzt eine Riesenlücke. Die Gf4 wurde mit dem 50ér Detonator auf einmal langsamer um die neuen weiter abzusetzten. Bei der GF6 hatten die das auch gemacht. Wenn beide Karten neu sind, ist wirklich ein nahezu gleichstand. Aber wenn die Karten alt sind trennt sich die Spreu vom Weizen. Viele meiner Kumpels spielen heute noch auf ihrer 9800pro.

Gruß Monsta

Gast
2006-10-05, 13:18:33
Und das PCGH sehr stark zu ATI schwankt ist auch schon seit Jahren bemerkbar seit aber ATI nun von AMD geschluckt wurde auch deutlich erkennbar ;-)

HMM dann ist die Gamestar weil sie HDR-AA schön finden jetzt auch auf einmall mehr zu ATi hingezogen?

Ronny G.
2006-10-05, 13:32:01
Ein freies Magazin hin oder her, die Welt ist Käuflich und die Hersteller nicht dumm, den Rest kann man sich denken. Es darf nur nicht so offensichtlich erkennbar sein, und nur darin besteht die Kunst.

Vertigo
2006-10-05, 13:33:49
Ein freies Magazin hin oder her, die Welt ist Käuflich und die Hersteller nicht dumm, den Rest kann man sich denken. Es darf nur nicht so offensichtlich erkennbar sein, und nur darin besteht die Kunst.
Was wäre wohl für so etwas anfälliger? Ein millionenschwerer Großverlag oder eine kleine Website? :|

LovesuckZ
2006-10-05, 13:41:22
Was wäre wohl für so etwas anfälliger? Ein millionenschwerer Großverlag oder eine kleine Website? :|

Der Großverlag, da der Kapitalaufwand für ihn deutlich höhrer liegt, um profitabel zu sein.

Ronny G.
2006-10-05, 13:45:34
du weißt was anfälliger ist, das heißt doch aber noch nichts, man kann das eine auch als Sicherheit des großen sehen, so nach dem Motto:"die doch nicht".
So gesehen macht NVidia nichts anderes, welches Logo sieht man wohl mehr in Games?
Oder was war jetzt vor kurzem mit der Intel Werbung in der Maxim, Zitat aus...

Aber darüber zu spekulieren wäre jetzt quatsch, das wird sonst noch komischer hier.;D

Gast
2006-10-05, 13:50:23
was ist denn hier auf einmall los?Jetzt wird schon einer Spielzeitschrift Korruption unterstellt?

Vertigo
2006-10-05, 13:52:22
was ist denn hier auf einmall los?Jetzt wird schon einer Spielzeitschrift Korruption unterstellt?
Fanboys. ;) Wenn die favorisierte Karte im Benchmark den kürzeren zieht, steckt natürlich eine üble Verschwörung dahinter. :biggrin:

Ronny G.
2006-10-05, 13:52:24
was ist denn hier auf einmall los?Jetzt wird schon einer Spielzeitschrift Korruption unterstellt?

ist das was neues?

Aber ich glaube auch, das weiteres vertiefen in das zwielichtige keine Sinn hat.

zurück zum thema

Grumbart
2006-10-05, 13:56:34
Der Punkt ist einfach der, d. es hier Einigen nicht passt wenn mal ein Produkt ihrer favorisierten Marke schlechter als ein Mitbewerber abschneidet.
Da kommt dann gleich die allgegenwärtige Weltverschwörungstheorie zum Tragen.

Mir persönlich ist es vollkommen egal ob eine ATI oder Nvidia Karte im Rechner steckt, solange sie das bietet was ich erwarte.

Zurück zum Topic, d. GTO ist für den gegenwärtigen Preis ein tolles Angebot.

Sven77
2006-10-05, 13:58:16
Was wäre wohl für so etwas anfälliger? Ein millionenschwerer Großverlag oder eine kleine Website? :|

oder ein unterbezahlter redakteur? ich hab ma gesehen, wie das bei der motorpresse abgeht, in der die grossen ja angeblich auch soo unabhaengig sind.. da fehlen einem die worte. fuer mich zaehlen persoenliche erfahrungswerte, und nicht irgendwelche schmierblaetter (PCGH zaehl ich da auch dazu)

Gast
2006-10-05, 14:01:00
oder ein unterbezahlter redakteur? ich hab ma gesehen, wie das bei der motorpresse abgeht, in der die grossen ja angeblich auch soo unabhaengig sind.. da fehlen einem die worte. fuer mich zaehlen persoenliche erfahrungswerte, und nicht irgendwelche schmierblaetter (PCGH zaehl ich da auch dazu)

Und das sagt einer der ne 7900 GTO hat.:rolleyes:;)

Vertigo
2006-10-05, 14:01:34
oder ein unterbezahlter redakteur? ich hab ma gesehen, wie das bei der motorpresse abgeht, in der die grossen ja angeblich auch soo unabhaengig sind.. da fehlen einem die worte. fuer mich zaehlen persoenliche erfahrungswerte, und nicht irgendwelche schmierblaetter (PCGH zaehl ich da auch dazu)
;D

no comment ...

Ronny G.
2006-10-05, 14:02:47
ich glaube nicht, das man mit der GTO einen Grund hat sich in Tests zu verstecken, die Sache dürfte doch nun eindeutig sein.

jeder nimmt das was ihm am besten gefällt, man Brauch ja schließlich ein bisl Kontrast im Benchmarkforum. Wenn alle NV hätten oder umgedreht wäre doch auch langweilig.

edit: das stimmt wohl, NV ist ein schöner Geldgeber, sind ja nun schon ne menge Logos in den Games unterwegs, das juckt mich irgendwie garnicht.

Mr. Lolman
2006-10-05, 14:03:45
War womöglich tatsächlich nur ein Versehen. Wenn, dann aber ein ziemlich blödes: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=262736

Vertigo
2006-10-05, 14:06:12
ich glaube nicht, das man mit der GTO einen Grund hat sich in Tests zu verstecken, die Sache dürfte doch nun eindeutig sein.

jeder nimmt das was ihm am besten gefällt, man Brauch ja schließlich ein bisl Kontrast im Benchmarkforum. Wenn alle NV hätten oder umgedreht wäre doch auch langweilig.
Full ACK! ;)

Man kann ja nicht sagen, es wäre ein glattes Remis zwischen ATI und nVidia, da eben doch beide Vor- und Nachteile haben, die es gegeneinander abzuwägen gilt. Die 7900GTO ist aktuell ein absolutes Spitzenangebot, keine Frage. Das habe ich so auch schonmal vor 3-4 spamhaltigen Seiten hier im Thread gepostet ...

Sven77
2006-10-05, 14:10:09
Und das sagt einer der ne 7900 GTO hat.:rolleyes:;)

jo, und sag auch das es mehr flimmert wie vorher mit der X850XT... weil ichs mit eigenen augen gesehen hab, und nicht weils mir die Profilneurotiker hier ins hirn taetowiert haben...

4711
2006-10-05, 14:38:01
wo flimmerts denn mehr...zb Oblivion?
In HDR ohne AA-HDR mit AA.... schafft das die 850er überhaupt?Und erzähl jetzt keinen die hatte ich auch im Rechner...vorm 7800 SLI...
Oder Bloom mit AA.........
gesehen hab...jetzt nicht mehr.........wie nun?

Gast
2006-10-05, 15:25:39
wo flimmerts denn mehr...zb Oblivion?
In HDR ohne AA-HDR mit AA.... schafft das die 850er überhaupt?Und erzähl jetzt keinen die hatte ich auch im Rechner...vorm 7800 SLI...
Oder Bloom mit AA.........
gesehen hab...jetzt nicht mehr.........wie nun?

x8er mit 512er packen hdr + ogssaa und hqaf, von msaa und tssaa als aa ganz zu schweigen, ohne auf das ssaa und andere aa modi einzugehen. vsync is auch kein thema wenn man tp im fw forced - bei dem si! man hat ja genug vcore und somit genug mhz in der gpu.

und bloom kostet nich so viel performance wie hdr. auf sm3.0 grakas mit sli über pcie rennt das sowieso. nv hat aber das schnellere si, gepaart mit tc rockzort das. die mipmaps schauen aber auf ati karten besser aus, als auf nv's, wahrscheinlich wegen dem mehr oder weniger verwendeten triaf, was deutlich besser als bi oder bri af ist.

nv hat noch probs mit dem texture clamp. die compiler in der 3.hemmnisphäre stehen zz nicht im zentrum.


fazit: keine hände, keine keckse!

StefanV
2006-10-05, 15:26:46
@.NET

Ich 'brauche' es schlicht und ergreifend nicht.
Und ich sehe es nicht ein, mir für einen Grafiktreiber eine monströse Runtime installieren zu müssen...

Dass es noch andere Argumente gegen .NET gibt, steht ausser Frage:
- MicroSchrott-Abhängigkeit
- "RapidDevelopment" wird gepusht und es kommt so ein 'Müll', wie das CCC von ATI heraus
('Müll' im Sinne von Resourcen-Hunger, Performance-Verlusten und 'Langsamkeiten' in der Oberfläche)
...und noch einiges andere, was hier aber zu weit führen würde
Du hast einfach keinen Plan, Razor, weißt absolut nicht, was .NET ist, das ist das Problem, genau wie bei allen anderen, die über .NET herziehen.

Man muss es isntallieren, ja tragisch, vorallendingen weil die aktuellen nV Treiberpakete in Richtung 64MB gehen...



Und eine FX5800 ist unter 2D leiser als ALLE anderen Karten...

1. ist das schonmal glatt gelogen, denn wenn mich nicht alles täuscht hatten damalige Karten mit Lüftersteuerung _ALLE_ irgendwelche Probleme mit der Akkustig der PWM Steuerung, die auf den Lüfter überschlägt.
Kurzfassung: Das Teil pfiff bei niederer Lüfterdrehzahl wie sau!!
2. Ist die X1800 in 2D auch kaum zu hören...

mal abgesehen, von anderen anderen Passiv-Lösungen.
...die wirklich passiv garnicht so recht funktionieren oder es nicht sind, wie z.B. die ASUS Teile mti dem 'ARM', die sich des CPU Lüfters bedienen...

Sorry, Payne, aber merkst Du eigenlich noch was? Du vergleichst Karten aus Generationen, die locker 2 Jahre auseinander liegen?

Ja, und?!
Damals hat, seltsamerweise, niemand von euch 'nV Fans' sich wegen des Geräuschniveaus beschwert, jetzt auf einmal ist das bei ATi ein Nachteil??
Muss ich nicht verstehen, oder??

Zu allem Überfluss hat das von Dir gesagte aber auch rein gar nichts mit dem Thread-Thema zu tun. Zumal die "Kühler-Bindung" zu Zeiten der FX'en und der ersten 6x00 noch keinesfalls so 'stark' war, wie heute... damals konnte man sich die präferierte Kühllösung einfach aussuchen... und wenn ich mich da so an meine gute alte MSI FX5900 mit "Sonnenkühler" oder die Leadtek 6800LE mit wuchtigem Küpferkühler erinnere... da war der Referenzkühler der X1800 ein Witz!
Au mann, Razor beim flamen, kennt man ja nicht anders...

Ersteinmal sprach ich von Referenzlösungen, zum anderen gabs auch damals schon Lösungen, die absoluter Schrott war -> Flow FX, nV Referenzkühler, Leadtek Kühler, zum anderen dürften diese Kühler, die du hier genannt hast, nicht so recht passend sein, für eine x1800...
Meinereiner hatte eigentlich auch mal vor, den x1800 Kühler auf eine 6800 zu pappen, um mal zu sehen, wie groß der Temperaturunterschied ist und da erwarte ich einen recht großen...
der Witz ist hier eher, das du irgendwelche Kühler hypst, die für aktuelle Karten vorn und hinten nicht reichen...

Aber anscheinend hast dir den Kühler der x1800 noch nicht genauer angeschaut, sonst wüsstest du, das der garnicht mal so übel ist...

Ronny G.
2006-10-05, 15:51:54
Ich weiß nicht was an dem X1800-Kühler gut zu reden ist, der ist einfach mal nur laut, der Rest ist dann wohl uninteressant.

Vertigo
2006-10-05, 15:57:05
Ich weiß nicht was an dem X1800-Kühler gut zu reden ist, der ist einfach mal nur laut, der Rest ist dann wohl uninteressant.
Also die sind schon relativ leise im idle, zumal sie ja noch weiter drosseln kann. Doch wehe, wenn sie losgelassen ... :rolleyes:

Aber klar: gegen den Kühler der 7900GTX/GTO ist das Teil wirklich eine Zumutung.

Ronny G.
2006-10-05, 16:04:05
Also die sind schon relativ leise im idle, zumal sie ja noch weiter drosseln kann. Doch wehe, wenn sie losgelassen ... :rolleyes:

Aber klar: gegen den Kühler der 7900GTX/GTO ist das Teil wirklich eine Zumutung.

ja sie hatten so ein zischendes geräusch unter 3D, aber auch immer nur an und aus......, der von der X850pro war noch schlimmer, der klang noch fieser.

c0re
2006-10-05, 16:09:42
x8er mit 512er packen hdr + ogssaa und hqaf, von msaa und tssaa als aa ganz zu schweigen, ohne auf das ssaa und andere aa modi einzugehen. vsync is auch kein thema wenn man tp im fw forced - bei dem si! man hat ja genug vcore und somit genug mhz in der gpu.

und bloom kostet nich so viel performance wie hdr. auf sm3.0 grakas mit sli über pcie rennt das sowieso. nv hat aber das schnellere si, gepaart mit tc rockzort das. die mipmaps schauen aber auf ati karten besser aus, als auf nv's, wahrscheinlich wegen dem mehr oder weniger verwendeten triaf, was deutlich besser als bi oder bri af ist.

nv hat noch probs mit dem texture clamp. die compiler in der 3.hemmnisphäre stehen zz nicht im zentrum.


fazit: keine hände, keine keckse!

Ein bisschen versteh ich den Gast schon. Lauter Fachausdrücke hier.

ATI, MSA, AGA
RGB, HDR und TAA
AFK, SIF und EGA
CAD, GCR - ihr könnt mich mal
TFT, XTX und FPS
SVF, EPG und OSD
DCI, DDC und DAC
GCL, USW, GIF
PCX, WMF und MIP
RPM, CRT und Divx
VHS, DVD und VPT
JPG, PNG - ojemine
nV, S3 und DTP
T&L, EDV und MNG
CAD, HUE und PPI
DCC, NTSC - is nich OK

MfG - mit freundlichen Grüßen
die Welt liegt uns zu Füßen, denn wir stehen drauf
wir gehen drauf für ein Leben voller Schall und Rauch
bevor wir fallen, fallen wir lieber auf

lol

LovesuckZ
2006-10-05, 16:12:27
Aber anscheinend hast dir den Kühler der x1800 noch nicht genauer angeschaut, sonst wüsstest du, das der garnicht mal so übel ist...

Kann es vielleicht sein, dass du noch nie eine Karte mit dem GTO/GTX (oder eine vergleichbare Kühlung mit ähnlicher Lautstarke) "angeschaut hast"?
Wenn du den X1800 schon als " garnicht mal so übel" bezeichnest, müsstet diese für dich eine Art Gottstatus einnehmen...

Low Rider
2006-10-05, 19:07:40
x8er mit 512er packen hdr + ogssaa und hqaf, von msaa und tssaa als aa ganz zu schweigen, ohne auf das ssaa und andere aa modi einzugehen. vsync is auch kein thema wenn man tp im fw forced - bei dem si! man hat ja genug vcore und somit genug mhz in der gpu.

und bloom kostet nich so viel performance wie hdr. auf sm3.0 grakas mit sli über pcie rennt das sowieso. nv hat aber das schnellere si, gepaart mit tc rockzort das. die mipmaps schauen aber auf ati karten besser aus, als auf nv's, wahrscheinlich wegen dem mehr oder weniger verwendeten triaf, was deutlich besser als bi oder bri af ist.

nv hat noch probs mit dem texture clamp. die compiler in der 3.hemmnisphäre stehen zz nicht im zentrum.


fazit: keine hände, keine keckse!
..und jetzt nochmal auf Deutsch bitte... :confused:

ATI, MSA, AGA
RGB, HDR und TAA
AFK, SIF und EGA
CAD, GCR - ihr könnt mich mal
TFT, XTX und FPS
SVF, EPG und OSD
DCI, DDC und DAC
GCL, USW, GIF
PCX, WMF und MIP
RPM, CRT und Divx
VHS, DVD und VPT
JPG, PNG - ojemine
nV, S3 und DTP
T&L, EDV und MNG
CAD, HUE und PPI
DCC, NTSC - is nich OK

MfG - mit freundlichen Grüßen
die Welt liegt uns zu Füßen, denn wir stehen drauf
wir gehen drauf für ein Leben voller Schall und Rauch
bevor wir fallen, fallen wir lieber auf

;D

Gast
2006-10-05, 19:23:09
x8er mit 512er packen hdr + ogssaa und hqaf, von msaa und tssaa als aa ganz zu schweigen, ohne auf das ssaa und andere aa modi einzugehen. vsync is auch kein thema wenn man tp im fw forced - bei dem si! man hat ja genug vcore und somit genug mhz in der gpu.

und bloom kostet nich so viel performance wie hdr. auf sm3.0 grakas mit sli über pcie rennt das sowieso. nv hat aber das schnellere si, gepaart mit tc rockzort das. die mipmaps schauen aber auf ati karten besser aus, als auf nv's, wahrscheinlich wegen dem mehr oder weniger verwendeten triaf, was deutlich besser als bi oder bri af ist.

nv hat noch probs mit dem texture clamp. die compiler in der 3.hemmnisphäre stehen zz nicht im zentrum.


fazit: keine hände, keine keckse!


WTF???

Gast
2006-10-05, 23:12:18
alles klar ich pack die mikrowelle auch in den ofen damit das essen noch schneller warm wird.

Razor
2006-10-06, 19:48:32
Du...

Nein, DU hast einfach keine Argumente...
Ich habe mich klar ausgedrückt und von Dir kommt nichts, ausser... egal.


1. ist das schonmal glatt gelogen, denn wenn mich nicht alles täuscht hatten damalige Karten mit Lüftersteuerung _ALLE_ irgendwelche Probleme mit der Akkustig der PWM Steuerung, die auf den Lüfter überschlägt.
Kurzfassung: Das Teil pfiff bei niederer Lüfterdrehzahl wie sau!!
2. Ist die X1800 in 2D auch kaum zu hören...

Unter 2D dreht sich der FX5800-Lüfter gar nicht!
Nich langsam oder ein bissel oder "irgendwie unangenehm", sondern überhaupt nicht... Geräusche sind damit unmöglich.

...die wirklich passiv garnicht so recht funktionieren oder es nicht sind, wie z.B. die ASUS Teile mti dem 'ARM', die sich des CPU Lüfters bedienen...

:confused:

Damals hat, seltsamerweise, niemand von euch 'nV Fans' sich wegen des Geräuschniveaus beschwert, jetzt auf einmal ist das bei ATi ein Nachteil??
Muss ich nicht verstehen, oder??

Selbst nVidia hat sich über die eigene Lüfterlösung (tm@"FXFlow" ;-) lustig gemacht...
...OK, erst als das mit dem "Fön" gang und gebe war.

Damals hat wohl NIEMAND behauptet, dass das Ding erträglich oder gar leise war.
Fakt ist, dass die X1x00-HighEnder die "Föns" der Neuzeit sind...

<...skipped...>

Aber anscheinend hast dir den Kühler der x1800 noch nicht genauer angeschaut, sonst wüsstest du, das der garnicht mal so übel ist...

Das Ding ist grober Müll, sorry.
Und ja, ich hatte so ein Teil sogar schon mal länger im Rechner...
(und war froh, als ich es wieder los war ;-)

Razor

StefanV
2006-10-06, 20:32:27
Nein, DU hast einfach keine Argumente...
Hm, Mama, er hat mir den Loli geklaut? :rolleyes:
Ganz ab davon, das du hier mal wieder Unwahrheiten verbreitest, doch dazu später mehr...


Unter 2D dreht sich der FX5800-Lüfter gar nicht!
Nich langsam oder ein bissel oder "irgendwie unangenehm", sondern überhaupt nicht... Geräusche sind damit unmöglich.

Und das, lieber Razor, ist schlicht gelogen, da ich davon ausgehe, das du es eigentlich besser wissen müsstest, denn bei der FX5800 dreht sich der Lüfter sehr wohl in 2D, wenn auch nicht so schnell (dafür mit einem pfeifen unterlegt, dank bescheidener PWM Steuerung).

Was du meinst, ist die 5800 Ultra mit FönFX (und nur die!)...


Das Ding ist grober Müll, sorry.
Und ja, ich hatte so ein Teil sogar schon mal länger im Rechner...
(und war froh, als ich es wieder los war ;-)

Razor
Ach, Razor, sprechen wir mal wieder von hörensagen?!

Ich hab hier gerad 'ne x1800XT mit 'nem K8, hab hier atm 7 Lüfter am Laufen + die x1800, wenn ich nicht zocke, kann man das Teil wirklich nur schwer da raushören (der Rest ist auch nur schwer zu hören, die Platten sind da eher rauszuhören als 'nen Lüfter), das ganze natürlich auf 2 Rechner verteilt...

Und auch beim zocken ist das Teil, bei etwa 2500 Drehungen, die er bei mir macht, nicht wirklich laut, bei 3000 Drehungen fängts langsam an zu röhren, aber auch nicht wirklich laut oder so...

Aber vielleicht hast ja 'nen Fön auf die Karte gehalten oder was auch immer :rolleyes:

Das Teil auf der 6800 ist da nerviger, vorallendingen da die Lüftersteuerung erst funzt, wenn der Treiber geladen wird...

4711
2006-10-06, 20:55:40
Ach Leute wenns nicht so lächerlich wäre könnt man heulen!

Ronny G.
2006-10-06, 22:13:21
Können wir das nicht alles unter verschiedenen Wahrnehmungsvermögen auslegen? Der eine ist halt empfindlicher der andere gerade von der Baustelle gekommen.

The_Invisible
2006-10-06, 22:24:47
Das Teil auf der 6800 ist da nerviger, vorallendingen da die Lüftersteuerung erst funzt, wenn der Treiber geladen wird...

und wenn interessiert hier ein 6800er oder 5800er lüfter? keinen.

hier geht es einzig um die 7900gto, und deren lüfter ist nunmal besser als der der x1(8/9)00 karten, sich da auf vorige generationen ausreden bringt garnix

mfg

Razor
2006-10-07, 04:50:51
Was du meinst, ist die 5800 Ultra mit FönFX (und nur die!)...

Natürlich meinte ich die!
Welche FX wäre denn sonst mit einer ATI X1x00 vergleichbar?
:confused:

Sorry, Payne, aber Du redest wirres Zeug!

Ich hab hier gerad 'ne x1800XT mit 'nem K8, hab hier atm 7 Lüfter am Laufen + die x1800, wenn ich nicht zocke, kann man das Teil wirklich nur schwer da raushören (der Rest ist auch nur schwer zu hören, die Platten sind da eher rauszuhören als 'nen Lüfter), das ganze natürlich auf 2 Rechner verteilt...

Wenn man ein vernünftiges Gehäuse benutzt und zudem auch sonst auf 'Silence' achtet, wäre nahezu NICHTS zu hören... so wie bei meinem jetzigen System mit Antec P180, Scythe Ninja mit Antec "TriCool"@min auf der CPU (plus 2 weiteren langsam drehenden 12cm Lüftern für das Gehäuse) und eben Zalman VF900cu auf der GraKa. Die Festplatten (beides Samsung, die 'leisen' ;-) sind in dem Antec-Käfig montiert, welches nicht nur die Festplatten entkoppelt, sondern auch gleich den Käfig vom Gehäuse...

...aber war red' ich hier?
Du kannst Deine Grafikkarte selbt bei einem "Gebrumme" von 7 Lüftern nebst 'lauten' Festplatten unter 2D (wenn Du "nicht zockst") heraus hören?
Oh ha... und vom Zocken wollen wir mal lieber nicht sprechen, oder?

Nur zum Vergleich: ich höre meine Grafikkarte NIE!
Du kannst Dir villeicht vorstellen, was für ein Schock es für mich war, als ich die 7900GT erstmalig einbaute...
...bei den ATIs hatte ich so etwas ja erwartert - obwohl sie bei mir sogar die WorstCase-Befürchtungen übertrafen!
(der "Fön" lebt! ;-)

Und auch beim zocken ist das Teil, bei etwa 2500 Drehungen, die er bei mir macht, nicht wirklich laut, bei 3000 Drehungen fängts langsam an zu röhren, aber auch nicht wirklich laut oder so...

Du scheinst echt ein Problem mit dem Gehör zu haben oder aber kennst vielleicht einfach nichts anders.
(oder aber meine Theorie von dem "langfristig abfärbenden ATI Besitz" trifft zu ;-)

Das Teil auf der 6800 ist da nerviger, vorallendingen da die Lüftersteuerung erst funzt, wenn der Treiber geladen wird...

Nö.
Der Leadtek-Kühler war absolut OK... der hat auch nicht genervt.
Aber um den geht es hier wohl nicht... es geht um die 7900GTO.

Razir

StefanV
2006-10-07, 05:12:26
Natürlich meinte ich die!
Welche FX wäre denn sonst mit einer ATI X1x00 vergleichbar?
:confused:

Sorry, Payne, aber Du redest wirres Zeug!
Nein, du bist nicht in der Lage dich klar auszudrücken, sprichst die ganze Zeit von der FX5800, meinst aber die FX5800 Ultra...

Sorry, Razor, aber diese Ausrede kauf ich dir nicht ab...

Wenn man ein vernünftiges Gehäuse benutzt und zudem auch sonst auf 'Silence' achtet, wäre nahezu NICHTS zu hören...
Oder so wie bei mir, wo ich auch eigentlich nichts höre und das brumen/Surren der PFC Spule des Q-Technology 235W Netzteil mit Abstand das lauteste ist, was ich momentan höre :rolleyes:
Wobei der eine Rechner ohne Gehäuse auskommt, dennoch hats 4 Lüfter: CPU, ATi-GraKa, NT und Festplatte...

Der andere Rechner schaut genauso aus, die x1800XT hör ich im Idle eigentlich garnicht raus...


so wie bei meinem jetzigen System mit Antec P180, Scythe Ninja mit Antec "TriCool"@min auf der CPU (plus 2 weiteren langsam drehenden 12cm Lüftern für das Gehäuse) und eben Zalman VF900cu auf der GraKa.
Mein XP120 gefällt mir da besser, mit Sunon Lüfter @ 5V, am gleichen Fan Mate hängt noch ein 60mm Sunon für die Festplatte und eine Sapphire x1300HM (mit 128MB Onboard), im einen und ein K8 Box Lüfter, geregelt von der Steuerung des MSI K9A, x1800 und ein 80mm Lüfter für die Festplatte sowie das 80mm Teil im NMB NT, ist auch nicht sonderlich laut, Gehäuse ist in diesem Falle übrigens ein Casetek CS1019, Aluminium...

Die Festplatten (beides Samsung, die 'leisen' ;-) sind in dem Antec-Käfig montiert, welches nicht nur die Festplatten entkoppelt, sondern auch gleich den Käfig vom Gehäuse...
Platte ist im 'Game PC' normalerweise eine 36GB Cheetah 10k .6 und nein, die ist nicht wirklich laut, aufgrund der hervorragenden Dämmung der Platte samt dem hohen Eigengewicht unterscheidet sich die Lautstärke kaum von dem was eine 7200.7/8 SATA so von sich gibt...

...aber war red' ich hier?
Du kannst Deine Grafikkarte selbt bei einem "Gebrumme" von 7 Lüftern nebst 'lauten' Festplatten unter 2D (wenn Du "nicht zockst") heraus hören?
Oh ha... und vom Zocken wollen wir mal lieber nicht sprechen, oder?
Wenn ich mich ordentlich anstrenge ja, liegt aber auch daran, das ich ein sehr gutes Gehör habe, das die Platte deutlich zu hören ist, liegt wohl daran, das sie etwa 'nen halben Meter von meinem Ohr entfernt ist, ohne irgendwelche Dinge drumrum, liegt momentan auf 'ner Spellforce DVD Hülle...


Du scheinst echt ein Problem mit dem Gehör zu haben oder aber kennst vielleicht einfach nichts anders.
Tja, das könnt ich dir auch unterstellen, das du deine nVidia garnicht hören willst und garnicht wahrgenommen hast, wie laut die 5x00/6800 war :devil:



Nö.
Der Leadtek-Kühler war absolut OK... der hat auch nicht genervt.
Aber um den geht es hier wohl nicht... es geht um die 7900GTO.
LOL; willst mich verarschen?!
Der Leadtek Kühler war so ziemlich das bescheidenste, was ich jemals erleben durfte, übertrifft selbst 'nen Staubsauger FX deutlich!
Hatte selbst mal 'ne 5900LX (http://www.ixbt.com/video2/gffx-27.shtml) mit dem Mistding (http://www.overclockers.ru/hardnews/11627.shtml)...

Razor
2006-10-07, 05:29:18
Sorry, Razor,...

Nö.

LOL; willst mich verarschen?!
Der Leadtek Kühler war so ziemlich das bescheidenste, was ich jemals erleben durfte, übertrifft selbst 'nen Staubsauger FX deutlich!
Hatte selbst mal 'ne 5900LX (http://www.ixbt.com/video2/gffx-27.shtml) mit dem Mistding (http://www.overclockers.ru/hardnews/11627.shtml)...

Du sprachst von einer 6800, ich antwortete und Du kommst jetzt mit 'ner FX?
War ja klar...

Platte ist im 'Game PC' normalerweise eine 36GB Cheetah 10k .6 und nein, die ist nicht wirklich laut,...

Klar... EOD.

Razor

Ronny G.
2006-10-07, 13:24:41
Was doch aber sehr beachtlich ist, das der GTO/GTX Kühler mit gerade mal 50% dreht, also auf halber Kraft, und dabei so göttlich kühlt.

StefanV
2006-10-07, 15:31:44
Und du glaubst, der KÜhler einer x1800 dreht schneller als 50%, beim 'normalen Betrieb'?!

Aha...

spike.sp.
2006-10-07, 16:46:38
mal ne andere frage

zahlt sich de wechsel von ner 7800GTX 256MB auf ne 7900GTO performance mäßig aus? restliches system: x2@2,4GHZ, 2GB ram

is der lüfter gleich leise wie bei ner 7800GTX?

StefanV
2006-10-07, 16:57:28
Lohnt nicht wirklich, spar/warte lieber auf D3D10 Karten, da hast mehr von!!

Allein schon von den ganzen, neuen 'DX9 Features'...

Ronny G.
2006-10-07, 17:45:05
Und du glaubst, der KÜhler einer x1800 dreht schneller als 50%, beim 'normalen Betrieb'?!

Aha...

wer hat das gesagt?