PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Radeon X1900 XT vs. GeForce 7950 GT


Leonidas
2006-12-02, 17:58:40
Link:
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/

Raff
2006-12-02, 18:07:32
Ich hab's nur überflogen. Was mir aber spontan auffiel:

[...] sowie das in der Praxis eher nutzlose "A.I. off" [...]

Warum nutzlos? Sagen wir "kompromissbehaftet". So wie A.I. Standard, aber in anderen Gebieten.

Zudem ist Area-AF nicht winkelunabhängig, gerade bei 16x.

MfG,
Raff

Xmas
2006-12-02, 18:22:18
Letzte Seite:Dies sagt zwar aus, daß die entsprechende Lösung von nVidia deutlich effektiver arbeitet als jene von ATI
Effizienter, über die Effektivität wird hier gar nichts ausgesagt.

Leonidas
2006-12-02, 18:34:17
Letzte Seite:
Effizienter, über die Effektivität wird hier gar nichts ausgesagt.

Gefixt. War auch so gemeint.





Warum nutzlos? Sagen wir "kompromissbehaftet". So wie A.I. Standard, aber in anderen Gebieten.

Zudem ist Area-AF nicht winkelunabhängig, gerade bei 16x.

MfG,
Raff



1. Nutzlos: Wenn teilweise zwingend benötigte Gamefixes abgeschaltet werden, isses nutzlos. Zudem "eher nutzlos" - das "eher" schwächt das wie von mir geplant entsprechend ab.

2. Gefixt: (fast) winkelunabhängig

godess
2006-12-02, 19:01:11
Der Artikel hat seinen Sinn, nVidias 7950GT zu bashen, erfüllt.

Wolfram
2006-12-02, 19:12:51
IMO habt Ihr Oblivion unter viel zu hohen Settings gebencht. In mindestens drei der vier Benchmarks sind durch die Bank unspielbare Frameraten die Folge, aus denen ich nichts für die Spielbarkeit ableiten kann.

Ich spiele es auf meiner X1800XT 256MB in 1024x768, 8x AF, 2x AA (kein AAA!). Damit sind die fps dann bis auf ganz üble Stellen immer mindestens in den 30ern. Es wird zwar gerne behauptet, Oblivion sei mit 15fps noch gut spielbar, das finde ich aber gerade wegen der relativ aktionsreichen First-Person-Kämpfe nicht nachvollziehbar. Und auch die 15 fps erreicht Ihr in Euren Benchmarks ja kaum.

Kinman
2006-12-02, 20:16:48
Das Review gefiel mir, aber die Darstellung der Benchergebnisse sind irre.
Da sollte man besser die gleichen Auflösungen beider Karten nebeneinanderstellen und inzwischen einen kleinen Abstand.

mfg Kinman

Undertaker
2006-12-02, 20:38:56
ich muss godess zustimmen, der artikel weckt leicht den eindruck der voreingenommenheit... warum "hackt" man so auf der bildqualität rum (in wieweit einen die winkelabhängigkeit wirklich stört ist doch eher strittig), vergisst aber fakten wie stromverbrauch, übertaktbarkeit und lautstärke? hätte man zumindest auch mal erwähnen können... bzgl der benchmarks ist die auswahl etwas klein um wirklich eine verlässliche aussage treffen zu können... auch verfälscht ein spiel wie oblivion das gesamtergebnis etwas, wenn man wiederum zb riddick oder quake4 dabei hätte sähe das schon ganz anders aus...

bzgl zukunftssicherheit: auf der einen seite lobt man die 48 shadereinheiten des r580, andersherum erklärt man die x1950xt 256mb zum eigentlichen sieger - logik? hier hat einen die vergangenheit bisher IMMER das gegenteil gelehrt. in diesem zusammenhang sollte man auch beachten, dass für die zukunft vorallem die performance in 1280x1024 ohne aa interessant sein wird, weil diese grakas in kommenden spielen eh nicht für mehr taugen

Wolfram
2006-12-02, 21:40:29
Das Review gefiel mir, aber die Darstellung der Benchergebnisse sind irre.
Finde ich auch unübersichtlich.
auch verfälscht ein spiel wie oblivion das gesamtergebnis etwas, wenn man wiederum zb riddick oder quake4 dabei hätte sähe das schon ganz anders aus...
Oblivion ist als sehr shaderlastiges DirectX-Spiel aber eher, was wir in Zukunft technisch erwarten dürfen, nämlich noch shaderlastigere Spiele...

bzgl zukunftssicherheit: auf der einen seite lobt man die 48 shadereinheiten des r580, andersherum erklärt man die x1950xt 256mb zum eigentlichen sieger - logik?
...weswegen man auch dies logisch finden kann.
in diesem zusammenhang sollte man auch beachten, dass für die zukunft vorallem die performance in 1280x1024 ohne aa interessant sein wird, weil diese grakas in kommenden spielen eh nicht für mehr taugen
Dann müßte man aber auch die Performance in 1280x1024 mit den kommenden Spielen messen, was nunmal nicht geht.

Aber auch bei heutigen Spielen halte ich 1280x1024 schon wegen der Verbreitung von TFTs mit dieser nativen Auflösung für die insgesamt praxisgerechteste Einstellung. Wie schon oben gesagt: Aufgrund der unterirdischen fps in Oblivion hätte ich da lieber für 1280x1024 ohne AA Zahlen gesehen.

Die fps in Oblivion belegen für mich auch, daß es selbst bei Karten a la G80 Käse ist, nur noch in superhohen Auflösungen zu benchen.

LovesuckZ
2006-12-02, 21:43:25
auf der einen seite lobt man die 48 shadereinheiten des r580, andersherum erklärt man die x1950xt 256mb zum eigentlichen sieger - logik?

Meinst du die 7950GT?

Undertaker
2006-12-02, 22:07:36
Meinst du die 7950GT?

hmm war schlecht ausgedrückt, ich meinte nur das man eine karte nur aufgrund von shadereinheiten als zukunftssicher erklärt, wo sie dies doch aufgrund zuwenig vram nicht wirklich ist...

Finde ich auch unübersichtlich.

Oblivion ist als sehr shaderlastiges DirectX-Spiel aber eher, was wir in Zukunft technisch erwarten dürfen, nämlich noch shaderlastigere Spiele

das ist der 3dm06 oder fear auch, da liegt die 7950gt gar net mal schlecht...

Melbourne, FL
2006-12-03, 00:15:24
ich muss godess zustimmen, der artikel weckt leicht den eindruck der voreingenommenheit... warum "hackt" man so auf der bildqualität rum (in wieweit einen die winkelabhängigkeit wirklich stört ist doch eher strittig)

Naja...die BQ ist schon wichtig und gehört zu Einordnung der Leistung nun einfach mal dazu.

vergisst aber fakten wie stromverbrauch, übertaktbarkeit und lautstärke?

Prinzipiell hast Du recht. Aber z.B. die Lautstärke ist vom Hersteller und nicht vom Grafikchip abhängig.

Alexander

LovesuckZ
2006-12-03, 00:22:30
Prinzipiell hast Du recht. Aber z.B. die Lautstärke ist vom Hersteller und nicht vom Grafikchip abhängig.


Trotzdem muss sowas in betracht gezogen.
Auch wenn nur die Lautstärke der zur Verfügung stehenden Karte bewertet wird, darf solch ein kaufentscheidenes "Feature" nicht nicht beachtet werden.

StefanV
2006-12-03, 01:26:33
Link:
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/
Einige Dinge sind wirklich unschön, fangen wir mal an:

a) Warum sind in der Tabelle mit der Hardware, die identisch sind Dinge doppelt und nicht wie sonst überall üblich, nur einmal dafür aber zentriert.
b) Taktangabe in den Diagrammen fehlen, zu den Prozessoren.
Und noch ein paar andere Dinge...

PS: Böse, das ihr euch auch noch Dinge rausgesucht habt, die die 7950GT so schlecht dastehen lassen :devil:

tombman
2006-12-03, 04:54:16
Habs nur überflogen, und das layout der benchmark Grafiken ist der Horror.
Daß ATI gewinnt war eigentlich eh klar...

Würde mich ned wundern wenn der R600 auch stärker als der G80 ist...

Nvidia hat halt meistens den Vorteil, daß sie schlichtweg früher am Markt rauskommen....

Madkiller
2006-12-03, 09:01:10
auch verfälscht ein spiel wie oblivion das gesamtergebnis etwas, wenn man wiederum zb riddick oder quake4 dabei hätte sähe das schon ganz anders aus...

Verfälschen tun IMO nur die Spiele das Ergebniss, die speziell wegen der Hardware ausgesucht wurden. Egal ob zum Vorteil oder Nachteil. Was hier nicht der Fall ist.
Die Spiele für diese Benchmarkserie (von AM2 vs C2D über den hier) wurden in erster Linie von diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=310699) abgeleitet.

Omega2
2006-12-03, 09:20:09
ich muss godess zustimmen, der artikel weckt leicht den eindruck der voreingenommenheit... warum "hackt" man so auf der bildqualität rum (in wieweit einen die winkelabhängigkeit wirklich stört ist doch eher strittig), vergisst aber fakten wie stromverbrauch, übertaktbarkeit und lautstärke? hätte man zumindest auch mal erwähnen können... bzgl der benchmarks ist die auswahl etwas klein um wirklich eine verlässliche aussage treffen zu können... auch verfälscht ein spiel wie oblivion das gesamtergebnis etwas, wenn man wiederum zb riddick oder quake4 dabei hätte sähe das schon ganz anders aus...

Ich sehe das nicht als darauf rumhacken. Es ist eher der direkte Vergleich und dieser fehlt in der Mehrheit der Tests, die man auf anderen Seiten lesen kann. Da wird dann einfach auf default mit allen Optimierungen verglichen. Es mag ja sein, daß der Dau auch so seine Graka konfiguriert, dennoch steht für viele Spieler die Qualität im Vordergrund.
Deine Logic nach kann ich ein Spiel auch auf 800*640 auf niedrigster Detailstufe spielen. Dann läuft es auch noch auf einer GF 5800 flüssig ;). Sicher ein extremes Beispiel aber im Kern läuft es darauf hinaus.

Was Lautstärke und Stromverbrauch angeht, gebe ich Dir allerdings recht. So etws gehört zur Gesamtbetrachtung dazu.


bzgl zukunftssicherheit: auf der einen seite lobt man die 48 shadereinheiten des r580, andersherum erklärt man die x1950xt 256mb zum eigentlichen sieger - logik? hier hat einen die vergangenheit bisher IMMER das gegenteil gelehrt. in diesem zusammenhang sollte man auch beachten, dass für die zukunft vorallem die performance in 1280x1024 ohne aa interessant sein wird, weil diese grakas in kommenden spielen eh nicht für mehr taugen

Das ist nun wirklich eine verschrobene Argumentation. Eine Graka, die bei besserer Bildqualität die höhere Leistung bringt soll in Bezug auf Zukunftsicherheit ohne die bildverbessernden Features getestet werden? Ich bin froh, wenn eine Graka heute eine gute Qualität gepaart mit hoher Performance bietet und genau das macht die X19XX. Die 79XX-Reihe hat leider genau darauf verzichtet. Zugunsten des längeren Balkens in 08/15 Tests anderer HW-Magazinen. Schön, daß das 3dC es mal anders macht.

Gruß

Omega

BTW: Ich hab ne 7800GTX, bin also kein Fanboy ;)

Undertaker
2006-12-03, 10:31:51
Ich sehe das nicht als darauf rumhacken. Es ist eher der direkte Vergleich und dieser fehlt in der Mehrheit der Tests, die man auf anderen Seiten lesen kann. Da wird dann einfach auf default mit allen Optimierungen verglichen. Es mag ja sein, daß der Dau auch so seine Graka konfiguriert, dennoch steht für viele Spieler die Qualität im Vordergrund.
Deine Logic nach kann ich ein Spiel auch auf 800*640 auf niedrigster Detailstufe spielen. Dann läuft es auch noch auf einer GF 5800 flüssig ;). Sicher ein extremes Beispiel aber im Kern läuft es darauf hinaus.

ich glaube auch hier wurde ich etwas missverstanden - ich habe keineswegs bemängelt, dass die bildqualität besprochen wurde (die ja durchaus bei den ati besser ist), sondern nur das sie in relation zu den bereits erwähnten, nicht angesprochenen fakten so in den himmel gehoben wurde... das setting nvidia/high quality und ati/ai off ist in meinen augen qualitätsmäßig ersteinmal durchaus fair, bleibt also der punkt des af - und hier bleibe ich dabei, 95% aller relevanten texturen sind waage- oder senkrecht, also zb im vergleich zur flimmerproblematik, welche selbst nutzern auffiel die nicht speziell darauf geachtet haben, ein für viele (ich behaupte sogar mal, die meisten) nutzer praktisch eher irrelevanter punkt - genauso schaut es übrigens mit stromverbrauch und lautstärke aus, nicht für jeden wichtig, aber erwähnt werden sollte es

Das ist nun wirklich eine verschrobene Argumentation. Eine Graka, die bei besserer Bildqualität die höhere Leistung bringt soll in Bezug auf Zukunftsicherheit ohne die bildverbessernden Features getestet werden? Ich bin froh, wenn eine Graka heute eine gute Qualität gepaart mit hoher Performance bietet und genau das macht die X19XX. Die 79XX-Reihe hat leider genau darauf verzichtet. Zugunsten des längeren Balkens in 08/15 Tests anderer HW-Magazinen. Schön, daß das 3dC es mal anders macht.


das stimmt schon, dass war auch gar kein pro argument für die 7950gt (welche unter aa/af nicht mehr einbricht als eine x1900xt (siehe cb)), sonden mehr ein zweifellos richtiges argument, das eben dieses setting von 1280x1024 wichtig ist, wenn man die zukunftssicherheit betrachtet... fakt ist doch, dass zb der oblivion-test mit framerates von weit unter 30fps dann mit reduzierten settings ausgeführt werden sollte, in dieser form nützt er keinem was...

Garfieldx
2006-12-03, 12:38:43
Danke, guter Artikel. :)

Deckt sich mit meinen Erfahrungen - bezüglich Prey, Oblivion & Titan Quest @ X1900XTX, AMD X2 2.4GHz und 2GB RAM

Btw.:
Das mit laut und übertakten... ist erstens mit vom Hersteller abhängig (z.B. HIS IceQ) und zweitens - es soll Käufer geben die nicht übertakten wollen.
Einziger Punkt wäre dann noch der Stromverbrauch, und ich weiss gerade nicht auswendig welche Karte da jetzt mehr braucht.

cu Garfield"DemBildqualitätwirklichwichtigist"X

Gast
2006-12-03, 13:05:54
Ihr schreibt auf Seite 3, dass es bei ATI mit AI-low einen trilinearen Grundfilter gibt. Das ist nicht korrekt. Trilinear gibt es nur bei eingefärbten Mips, in Spielen gibt es mit AI-low nur "brilinear".

Omega2
2006-12-03, 13:07:49
...........
das stimmt schon, dass war auch gar kein pro argument für die 7950gt (welche unter aa/af nicht mehr einbricht als eine x1900xt (siehe cb)), sonden mehr ein zweifellos richtiges argument, das eben dieses setting von 1280x1024 wichtig ist, wenn man die zukunftssicherheit betrachtet... fakt ist doch, dass zb der oblivion-test mit framerates von weit unter 30fps dann mit reduzierten settings ausgeführt werden sollte, in dieser form nützt er keinem was...

Du willst also bei einem Test nur die Auflösungen machen, die spielbar sind? Ichkenne Leute, die spielen Oblivion auf einer 9800Pro und finde das noch spielbar, dabei haben die vielleicht noch 15 FPS. Abgesehen davon verstehe ich auch nicht, warum Du der Meinung bist, der Oblivion Test würde das Ergebnis verfälschen. Natürlich kann man jetzt noch 23 andere Spiele testen und ich bezweifle nicht, daß es beim einen oder anderen Spiel auch besser für NV aussieht. Trotzdem zeigt der Test eigentlich nur das, was er zeigen soll. Die Radeon hat bei besserer Quali die Nase vorn. Ob es dann 5, 10 oder 15% sind hängt sicher vom Spiel ab.

Für mich ist der Test objektiv. Der Schwerpunkt lag auf der Qualität der Darstellung und nach diesem Kriterium ist die Radeon besser. Einzig Lautstärke und Stromverbrauch fehlen in diesem Test, aber das kann man zur Not auch woanders nachlesen ;).

Gruß

Omega

Undertaker
2006-12-03, 13:17:01
Du willst also bei einem Test nur die Auflösungen machen, die spielbar sind? Ichkenne Leute, die spielen Oblivion auf einer 9800Pro und finde das noch spielbar, dabei haben die vielleicht noch 15 FPS. Abgesehen davon verstehe ich auch nicht, warum Du der Meinung bist, der Oblivion Test würde das Ergebnis verfälschen. Natürlich kann man jetzt noch 23 andere Spiele testen und ich bezweifle nicht, daß es beim einen oder anderen Spiel auch besser für NV aussieht. Trotzdem zeigt der Test eigentlich nur das, was er zeigen soll. Die Radeon hat bei besserer Quali die Nase vorn. Ob es dann 5, 10 oder 15% sind hängt sicher vom Spiel ab.

Für mich ist der Test objektiv. Der Schwerpunkt lag auf der Qualität der Darstellung und nach diesem Kriterium ist die Radeon besser. Einzig Lautstärke und Stromverbrauch fehlen in diesem Test, aber das kann man zur Not auch woanders nachlesen ;).

Gruß

Omega

und ich kenne leute, die oblivion mit ner x1950xtx in 1024x768 spielen, weil sie min. 50fps haben wollen ;)

das die radeon die anse etwas vorn hat ist klar, aber wenn man nur 5 spiele testet, kann man eben nicht einfach einen mittelwert des vorsprungs angeben, welcher vorallem durch einige extremwerte beeinflusst wird; ob 5% vorne oder 15% ist schon sehr wohl entscheidend, wenn man auch noch den preisunterschied in betracht zieht...

godess
2006-12-03, 15:11:17
Für mich ist der Test objektiv. Der Schwerpunkt lag auf der Qualität der Darstellung und nach diesem Kriterium ist die Radeon besser. Einzig Lautstärke und Stromverbrauch fehlen in diesem Test, aber das kann man zur Not auch woanders nachlesen .Naja, ich find, dass die Spieleauswahl ein Witz ist, und das daraus folgende Fazit natürlich auch. Fünf Spiele reichen bei 3DC wohl aus, um eine Grafikkarte über eine andere Siegen zu lassen.

Alleine schon, das die Tabelle am Ende zeigt, um wie viel Prozent die Radeon besser ist, als die GeForce, spricht wohl 1000 Bände.

Ich bitte wiederholt um mehr Objektivität beim 3DC-Team.

Gast
2006-12-03, 15:35:18
Ihr durft die X1950 XT für 230 Euro nicht vergessen.;)

Omega2
2006-12-03, 15:37:53
Naja, ich find, dass die Spieleauswahl ein Witz ist, und das daraus folgende Fazit natürlich auch. Fünf Spiele reichen bei 3DC wohl aus, um eine Grafikkarte über eine andere Siegen zu lassen.

Alleine schon, das die Tabelle am Ende zeigt, um wie viel Prozent die Radeon besser ist, als die GeForce, spricht wohl 1000 Bände.

Ich bitte wiederholt um mehr Objektivität beim 3DC-Team.

Was heißt für Dich denn Objektivität? So lange testen, bis die NV Karte genauso schnell ist? Sie viele Spiele durch den Parcours jagen, bis es Dir gefällt?

Verstehe mich nicht falsch. Ich bin sicher man kann die Karten so testen, daß mal die eine und mal die andere die Nase vorne hat. Allerdings erreicht das NV nur über "optimiertes" AA und damit deutlich schlechtere Qualität, während die Radeon trotz besserer Qualität mindestens die gleiche Leistung bringt.

Ein solcher Test ist immer nur eine Auswahl and Spielen und es gibt immer die Möglichkeit über die Auswahl das Ergebns zu beeinflussen. Auf der anderen Seite hat jeder hier die Möglichkeit, auf anderen HW-Seiten ähnliche Tests als Vergleich heranzuziehen.

Meiner persönlichen Meinung nach gibt es allerdings sehr wenige Seiten, die so ernsthaft testen, wie das 3DC es macht.

Anderswo werden Timedemos genommen und unter 1280*1024 ohne AF und AA mit allen Treibertweaks auf Maximum durchgeführt. Geradezu eine Einladung and NV und ATI/AMD so lange zu tricksen, bis der Balken länger ist.
Hier ist es halt andersrum. Savegames und der bewußte Verzicht auf Timedemos und Treibertricks (zumindest soweit es überhaupt möglich ist) sind imho wesentlich realistischer als alles Andere, was man im Netz so findet. Und wenn Dir das Fazit des Tests nicht paßt, dann hindert Dich niemand daran, ein anderes Fazit zu ziehen ;).

Gruß

Omega

Gast
2006-12-03, 15:40:50
Naja, ich find, dass die Spieleauswahl ein Witz ist, und das daraus folgende Fazit natürlich auch. Fünf Spiele reichen bei 3DC wohl aus, um eine Grafikkarte über eine andere Siegen zu lassen.

Alleine schon, das die Tabelle am Ende zeigt, um wie viel Prozent die Radeon besser ist, als die GeForce, spricht wohl 1000 Bände.

Ich bitte wiederholt um mehr Objektivität beim 3DC-Team.

Bei anderen Test verliert die 7950 GT auch.ist da einer sauer weil seine 7950 GT nicht gut dasteht?;)Das eine 7950 GT langsamer als eine X1900 XT müsstest du schon seitdemm 7950 GT launch wissen.Man kann ein Ergebniss nicht verdrehen weils ein nicht passt,

Undertaker
2006-12-03, 15:55:40
Bei anderen Test verliert die 7950 GT auch.ist da einer sauer weil seine 7950 GT nicht gut dasteht?;)Das eine 7950 GT langsamer als eine X1900 XT müsstest du schon seitdemm 7950 GT launch wissen.Man kann ein Ergebniss nicht verdrehen weils ein nicht passt,

darum gehts hier keinem ;)

alles was hier bemängelt wird, ist das die 7950gt in vielen dingen verurteilt wird, während man bei der x1900xt einiges unter den tisch fallen lässt...

@omega: bitte eine quelle, dass die optimierungen bei nvidias aa sichtbar die qualität verschlechtern

r3ptil3
2006-12-03, 16:01:45
Naja, ich find, dass die Spieleauswahl ein Witz ist, und das daraus folgende Fazit natürlich auch. Fünf Spiele reichen bei 3DC wohl aus, um eine Grafikkarte über eine andere Siegen zu lassen.

Alleine schon, das die Tabelle am Ende zeigt, um wie viel Prozent die Radeon besser ist, als die GeForce, spricht wohl 1000 Bände.

Ich bitte wiederholt um mehr Objektivität beim 3DC-Team.

Also im Klartext DOOM3 und Quake4 auch dazu nehmen?

Ich finde das Review gut, vorallem dass nur Spiele getestet wurden. Dazu noch die Bilder sehr abwechslungsreich, einzig die Diagrammdarstellung hätte vielleicht etwas übersichtlicher dargestellt werden können.

godess
2006-12-03, 16:37:05
Also im Klartext DOOM3 und Quake4 auch dazu nehmen?Nicht unbedingt, einfach nur mehr Spiele. Und vllt. noch ein paar Benchmarkprogramme.

Ich finde das Review gut, vorallem dass nur Spiele getestet wurden. Dazu noch die Bilder sehr abwechslungsreich, einzig die Diagrammdarstellung hätte vielleicht etwas übersichtlicher dargestellt werden können. AA und AF Tester sind Spiele? Hmm, muss ich mal anzocken...

Und nochmal: Ich hab sicher kein Problem damit, das die 7950GT langsamer als die 1900XT. Ich stör mich nur daran, wie die Ergebnisse präsentiert und interpretiert werden. Und natürlich auch an dem was Undertaker sagt: "
alles was hier bemängelt wird, ist das die 7950gt in vielen dingen verurteilt wird, während man bei der x1900xt einiges unter den tisch fallen lässt..."
Es ist doch so. Die nVidia-Schwächen werden bis aufs letzte ausgelutscht, während ATis weitgehen ignoriert werden. Und wenn man sich doch einmal zu einem Mangel an einer ATi Karte äußert, wird natürlich gleich der Quervergleich in Form von "nVdia macht es noch schlechter" etc. angestellt.

r3ptil3
2006-12-03, 16:46:53
Nicht unbedingt, einfach nur mehr Spiele. Und vllt. noch ein paar Benchmarkprogramme.

AA und AF Tester sind Spiele? Hmm, muss ich mal anzocken...
Ich meinte damit dass hier kein grosser Wert auf 3DMark usw. gelegt wird, sondern richtige Spiele getestet werden, abgesehen vom "FSAA-Tester" was eigentlich bei den 3DCenter Reviews meiner Meinung nach fast wie ein Markenzeichen ist. ;)

StefanV
2006-12-03, 16:58:05
Nicht unbedingt, einfach nur mehr Spiele. Und vllt. noch ein paar Benchmarkprogramme.

1. Diese 'Benchmarkprogramme' kannst alle in die Tonne kloppen, da sie rein garnix aussagen.
2. Und was verhoffst du dir von mehr Spielen?!
Außer das es wesentlich mehr Arbeit für den Madkiller ist?!
Achja, stimmt ja, er hat nix besseres zu tun als ein paar sinnlose Benchmarks zu fahren, nur um ein paar bestimmte Männlein, die eh nörgeln, wenns Ergebnis nicht passt, zu beruhigen...


Und nochmal: Ich hab sicher kein Problem damit, das die 7950GT langsamer als die 1900XT. Ich stör mich nur daran, wie die Ergebnisse präsentiert und interpretiert werden. Und natürlich auch an dem was Undertaker sagt: "
alles was hier bemängelt wird, ist das die 7950gt in vielen dingen verurteilt wird, während man bei der x1900xt einiges unter den tisch fallen lässt..."
Wie wärs mal mit Kritik und keinem rumgeheule?!
Kritik ist z.B.
'Die Tabelle hier ist doof, das hätte man so besser machen können'.

Von dir sehe ich bisher keine Kritik, nur das dir die Ergebnisse, warum auch immer, nicht passen.

Von mir nur soviel:
Bei Spielen, die Shader ausgiebig benutzen, MUSS die X1900 schneller sein als die 79x0, eben weil Texturoperationen bei der R5x0 die Alus nicht blockieren, im Gegensat zu den nV40 Derivaten...

Es ist doch so. Die nVidia-Schwächen werden bis aufs letzte ausgelutscht, während ATis weitgehen ignoriert werden. Und wenn man sich doch einmal zu einem Mangel an einer ATi Karte äußert, wird natürlich gleich der Quervergleich in Form von "nVdia macht es noch schlechter" etc. angestellt.
Wenn man jetzt fies wäre, würd man das geschriebene gegen dich verwenden ;)
Aber das würd dann gleich haue von einem Moderator geben, wäre also auch nicht sooo gut...

Nur soviel: Mit dieser Aussage hast dich ein klein wenig blamiert...


So und jetzt sollten wir versuchen, den Artikel zu kritisieren, zu loben oder was auch immer wirklich mit dem Artikel zu tun hat...

Gast
2006-12-03, 17:07:14
Von mir nur soviel:
Bei Spielen, die Shader ausgiebig benutzen, MUSS die X1900 schneller sein als die 79x0, eben weil Texturoperationen bei der R5x0 die Alus nicht blockieren, im Gegensat zu den nV40 Derivaten...


Und genau das wird hier eher selten gezeigt.

Undertaker
2006-12-03, 17:33:52
1. Diese 'Benchmarkprogramme' kannst alle in die Tonne kloppen, da sie rein garnix aussagen.
2. Und was verhoffst du dir von mehr Spielen?!
Außer das es wesentlich mehr Arbeit für den Madkiller ist?!
Achja, stimmt ja, er hat nix besseres zu tun als ein paar sinnlose Benchmarks zu fahren, nur um ein paar bestimmte Männlein, die eh nörgeln, wenns Ergebnis nicht passt, zu beruhigen...


Wie wärs mal mit Kritik und keinem rumgeheule?!
Kritik ist z.B.
'Die Tabelle hier ist doof, das hätte man so besser machen können'.

Von dir sehe ich bisher keine Kritik, nur das dir die Ergebnisse, warum auch immer, nicht passen.

Von mir nur soviel:
Bei Spielen, die Shader ausgiebig benutzen, MUSS die X1900 schneller sein als die 79x0, eben weil Texturoperationen bei der R5x0 die Alus nicht blockieren, im Gegensat zu den nV40 Derivaten...

Wenn man jetzt fies wäre, würd man das geschriebene gegen dich verwenden ;)
Aber das würd dann gleich haue von einem Moderator geben, wäre also auch nicht sooo gut...

Nur soviel: Mit dieser Aussage hast dich ein klein wenig blamiert...


So und jetzt sollten wir versuchen, den Artikel zu kritisieren, zu loben oder was auch immer wirklich mit dem Artikel zu tun hat...

um jetzt mal nicht den gesamten erguss hier wiederkäuen zu müssen:

der vorsprung zb. in oblivion hängt keineswegs wirklich von der shaderleistung ab, sondern mehr von einer generellen optimierung(?) auf ati karten... sieht man zb schön hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion

die x1900xt liegt gerade einmal gut 5% (1600x1200 no aa/af) vor der x1800xt mit nur 1/3 der shaderleistung - hier limitieren andere dinge

besseres beispiel:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r

hier liegt die x1950xtx 50% vor der x1800xt (den höheren speichertakt kann man bei 1600x1200 no aa/af wohl eher vernachlässigen), dennoch ist der g70 in form der 7900gtx hier praktisch gleichwertig...

StefanV
2006-12-03, 17:43:34
der vorsprung zb. in oblivion hängt keineswegs wirklich von der shaderleistung ab, sondern mehr von einer generellen optimierung(?) auf ati karten...
Sorry, aber als ich das las, bin ich fast vom Stuhl gefallen, dabei weiß ich nichtmal, ob vor lachen oder weinen...

Denn:
Was du hier geschrieben hast, ist schlichtweg FALSCH, bei Oblivion gilt noch das gleiche wie für Morrowind -> Software HSR?! Was das?!
Das die ATI Karten hier deutlich schneller sind als die per G80 nV Karten liegt eben daran, das sie das bessere HSR haben.
Andererseits hat Oblivion tatsächlich recht umfangreiche Shader, kein Wunder also, das die ATI Karte besser läuft...


Das hat aber nichts mit Optimierungen zu tun, ganz im Gegenteil!!

Undertaker
2006-12-03, 18:51:42
Sorry, aber als ich das las, bin ich fast vom Stuhl gefallen, dabei weiß ich nichtmal, ob vor lachen oder weinen...

Denn:
Was du hier geschrieben hast, ist schlichtweg FALSCH, bei Oblivion gilt noch das gleiche wie für Morrowind -> Software HSR?! Was das?!
Das die ATI Karten hier deutlich schneller sind als die per G80 nV Karten liegt eben daran, das sie das bessere HSR haben.
Andererseits hat Oblivion tatsächlich recht umfangreiche Shader, kein Wunder also, das die ATI Karte besser läuft...


Das hat aber nichts mit Optimierungen zu tun, ganz im Gegenteil!!

ist es keine optimierung, verfahren einzusetzen, welche nur auf gpus eines herstellers leistungsfähig sind? gibt es natürlich auch umgekehrt...

und oblivion, nocheinmal, hängt zumindest in den außenleveln eben eindeutig NICHT an der shaderleistung, siehe x1800xt -> x1900xt (was du natürlich elegant überlesen hast)

StefanV
2006-12-03, 18:57:56
Und du hast anscheinend überlesen, was ich schrieb!!
Nochmal, für dich:
Oblivion nutzt KEINERLEI Software HSR, wie auch Morrowind vorher, damit kommen ATI Karten halt besser klar als nVs pre G80 Karten

Was du hier in diesem Thread geschrieben hast ist btw auch fürn Po, denn du nörgelst nur rum, das die 7950 so bescheiden abschneidet, warum ist dir egal, aber man hätte ja noch irgendwas raussuchen können, damit sie besser dasteht...

Dazu fällt mir echt überhauptnix ein...

Das in dem Artikel auch noch X2/3800+ und C2D, das ganze auf 800x600 (mit welcher GraKa eigentlich?!) getestet wurden, ist bisher niemand aufgefallen, weil wir ja so vertieft im rumgeheule sind, weil das Ergebnis nicht so ausgefallen ist, wie man sichs gewünscht hätte...

Sorry, aber irgendwie...

Mr. Lolman
2006-12-03, 19:00:00
ist es keine optimierung, verfahren einzusetzen, welche nur auf gpus eines herstellers leistungsfähig sind? gibt es natürlich auch umgekehrt...

und oblivion, nocheinmal, hängt zumindest in den außenleveln eben eindeutig NICHT an der shaderleistung, siehe x1800xt -> x1900xt (was du natürlich elegant überlesen hast)

Oblivion ist ein TWIMTBP-Spiel: http://uk.nzone.com/object/nzone_oblivion_home_eu.html ;)

Banshee18
2006-12-03, 19:01:30
ist es keine optimierung, verfahren einzusetzen, welche nur auf gpus eines herstellers leistungsfähig sind? gibt es natürlich auch umgekehrt...
Du weißt anscheinend nicht was HSR ist.
Bei Oblivion gibt es angeblich kein Software-HSR, deshalb ist die Grafikkarte auf sich alleine gestellt. ATi kann per HierZ im Optimalfall mehr verdeckte Pixel pro Frame nicht rendern als ältere nVidia-Grafikkarten.
€: Viel zu langsam...

Undertaker
2006-12-03, 19:15:12
Und du hast anscheinend überlesen, was ich schrieb!!
Nochmal, für dich:
Oblivion nutzt KEINERLEI Software HSR, wie auch Morrowind vorher, damit kommen ATI Karten halt besser klar als nVs pre G80 Karten

Was du hier in diesem Thread geschrieben hast ist btw auch fürn Po, denn du nörgelst nur rum, das die 7950 so bescheiden abschneidet, warum ist dir egal, aber man hätte ja noch irgendwas raussuchen können, damit sie besser dasteht...

Dazu fällt mir echt überhauptnix ein...

Das in dem Artikel auch noch X2/3800+ und C2D, das ganze auf 800x600 (mit welcher GraKa eigentlich?!) getestet wurden, ist bisher niemand aufgefallen, weil wir ja so vertieft im rumgeheule sind, weil das Ergebnis nicht so ausgefallen ist, wie man sichs gewünscht hätte...

Sorry, aber irgendwie...

ich rege mich nicht (nur) über das ergebnis auf, mich stört viel mehr wie es ermittelt wurde ;)

und nein, ich weis nicht was hsr ist, ist aber auch irrelevant, man hat ganz allgemein formuliert die grafik einfach nicht so realisiert, dass sie auf nvidia-karten vergleichbarer leistungsfähigkeit vergleichbar läuft... wenn dies eben daran liegt, dass der g71 ineffizient rendert sehe ich die schuld beim programmierer des spieles, der muss seine engine auf die graka anpassen und nicht umgekehrt - wenn ich sehe, was zb far cry aus der gleichen grafikhardware herausholt, ist das echt bescheiden...

das das game das TWIMTBP-logo trägt ist vermutlich nur eine frage von geldern die da fließen, mit optimierungen auf die ein oder andere hardware hatte das in der realität meist nix zu tun ;)

Mr. Lolman
2006-12-03, 19:17:36
das das game das TWIMTBP-logo trägt ist vermutlich nur eine frage von geldern die da fließen, mit optimierungen auf die ein oder andere hardware hatte das in der realität meist nix zu tun ;)

Naja, wenn ein Spiel im TWIMTBP Programm ist, dann ists zumindest sehr unwahrscheinlich, dass das Spiel speziell auf die HW der Konkurrenz optimiert wurde ;)

/edit: Außerdem ist der Zwang zu HW-HSR bei Oblivion praktisch ne designtechnische Limitation. Da die Landschaft komplett aus Heightmaps generiert wird, müsste man in der ganzen Landschaft, manuell Antiportale setzen. Das treibt den CPU Load aber noch weiter nach oben, der aber gerade in Aussenregionen prinzipbedingt ohnehin schon am Höchsten ist. D.h. ein gut implementiertes Software HSR, hätte nicht nur die Entwicklungsdauer/kosten in die Höhe getrieben, sondern auch nur einen zweifelhaften Nutzen gebracht, und die Performance insgesamt noch inkonsistenter werden lassen.

/edit2: Abgesehen davon, performen die NV GraKas, in Anbetracht der Umstände in Oblivion sogar ziemlich gut. Ich hab mal mit der Unrealengine ähnliches Schindluder2 getrieben und brutal hohe Polygonanzahlen, auch unter Verzicht jeglichen SW HSRs, rendern lassen - mit dem Effekt, dass meine 6800GT nur ca. die selbe Performance erreichte, wie ne 9800pro!

StefanV
2006-12-03, 19:23:02
@Undertaker

Ich finds ziemlich bescheiden, wenn man die Zusammenhänge nicht versteht und dennoch mitreden will, ohne sich die Mühe zu machen, die Zusammenhänge zu verstehen...
Könnt jetzt noch deutlicher werden aber das überlasse ich mal anderen, fürs erste.

Nur soviel:
HSR = Hidden Surface Removal

Und jetzt versuch dich mal über Oblivion (und Morrowind) zu informieren, warum das so lahm ist, besonders auf 'alten' nV Karten, bevor du hier noch irgendetwas zu diesem THema sagst!!

Omega2
2006-12-03, 19:35:08
@Undertaker

Ich finds ziemlich bescheiden, wenn man die Zusammenhänge nicht versteht und dennoch mitreden will, ohne sich die Mühe zu machen, die Zusammenhänge zu verstehen...
Könnt jetzt noch deutlicher werden aber das überlasse ich mal anderen, fürs erste.

Nur soviel:
HSR = Hidden Surface Removal

Und jetzt versuch dich mal über Oblivion (und Morrowind) zu informieren, warum das so lahm ist, besonders auf nV Karten, bevor du hier noch irgendetwas zu diesem THema sagst!!

Lieber Stefan,

gerade aus dem Urlaub zurück und schon wieder aggressiv?
Versuche es doch einfach mal mit etwas Sport. Das lenkt ab und schon fängt man an bestimmte Diskussionen nicht mehr gar zu ernst zu nehmen. Etwas mehr Gelassenheit im Umgang mit Andersdenkenden ist manchmal hilfreich :).

Schönen Abend

Omega

Undertaker
2006-12-03, 19:45:44
@Undertaker

Ich finds ziemlich bescheiden, wenn man die Zusammenhänge nicht versteht und dennoch mitreden will, ohne sich die Mühe zu machen, die Zusammenhänge zu verstehen...
Könnt jetzt noch deutlicher werden aber das überlasse ich mal anderen, fürs erste.

Nur soviel:
HSR = Hidden Surface Removal

Und jetzt versuch dich mal über Oblivion (und Morrowind) zu informieren, warum das so lahm ist, besonders auf nV Karten, bevor du hier noch irgendetwas zu diesem THema sagst!!

ich möchte mich nocheinmal selbst zitieren um es dir zu ermöglichen zu verstehen, woraus ich hinauf will:

man hat ganz allgemein formuliert die grafik einfach nicht so realisiert, dass sie auf nvidia-karten vergleichbarer leistungsfähigkeit vergleichbar läuft...

DAS ist der punkt den ich kritisiere, etwas was jeder gamestar leser feststellen kann ohne jegliches hintergrundwissen zu besitzen... hier haben die entwickler einfach nicht so gearbeitet wie man sich das wünscht, nicht zuletzt weil das spiel auch auf ati-karten nicht so läuft wie es der quotient von leistungsfähigkeit und gebotener grafik eigentlich erwarten lassen sollte

tokugawa
2006-12-03, 20:02:02
Ich find den Artikel prinzipiell nicht schlecht. Ich besitze ja auch beide Karten.

Das gesagte kann ich unterschreiben, faktisch stimmt es. Das Fazit sagt doch eh ziemlich deutlich dass bei der aktuellen Preissituation die beiden Karten vom Preis-Leistungs-Verhältnis gleich gut sind.

Trotzdem arbeite ich lieber auf meiner GeForce 7950 GT, ist zwar in meiner Engine 10-20 fps langsamer, aber schafft dafür den Refraktionseffekt ohne Verpixelungen, da ja die GeForce FP16-Filtering beherrscht (und die ATI eben nicht). Könnte man auf der ATI auf Kosten der Performance zwar "nachreichen", aber dazu hab ich keine Lust.

Im Endeffekt bleibt's also wieder persönliche Hersteller-Präferenz.



DAS ist der punkt den ich kritisiere, etwas was jeder gamestar leser feststellen kann ohne jegliches hintergrundwissen zu besitzen... hier haben die entwickler einfach nicht so gearbeitet wie man sich das wünscht, nicht zuletzt weil das spiel auch auf ati-karten nicht so läuft wie es der quotient von leistungsfähigkeit und gebotener grafik eigentlich erwarten lassen sollte

Bei Morrowind und Oblivion muß man allerdings beachten dass es ziemlich gute Content-Tools hat. Dass diverse Culling-Mechanismen (zu denen ja die "HSR"-Techniken gehören) sehr viel an der Editierbarkeit des Contents versauen können ist auch ein Faktum.

Angesichts des Content-Umfang des Spiels ist es aber technisch gerechtfertigt, etwas Performance zu opfern dafür dass es für die Leveldesigner und Artists bequem ist, neuen Content einzufügen oder vorhandenen zu editieren.

godess
2006-12-04, 03:55:08
Wenn man jetzt fies wäre, würd man das geschriebene gegen dich verwenden
Aber das würd dann gleich haue von einem Moderator geben, wäre also auch nicht sooo gut...
Lies doch bitte nochmal, vielleicht erkennst du dann die eigentliche Aussage.

patrese993
2006-12-04, 04:35:09
netter Artikel mit leicht unübersichtlichen Grafiken, wie bereits angemerkt.

Daß die XT unter dem Strich als Sieger hervorgehen wird, war zu erwarten. In Anbetracht der gebotenen Leistung beider Karten und der jeweiligen Beurteilung, welche CPU bei dem jeweiligen Spiel zur GraKa paßt, finde ich den Aufstand, den manche hier machen allerdings recht übertrieben. Das ist jammern auf hohem Niveau! Viele werden solche Karten mit weitaus "kleineren" CPUs kombiniert haben und häufiger dort ans Limit stoßen, als bei der GraKa.

Was mir wirklich fehlt, ist eine Analyse des Stromhungers, der Lautstärke und der Hitzeentwicklung. Sicher, das schließt eine kleine Übersicht über die verfügbaren Modelle von Herstellern mit ein. Aber es ist halt auch so, daß beispielsweise für mich die Lautstärke eine weitaus größere Rolle spielt, als ein paar Prozent Leistung und allein deswegen eine XT nicht in Frage kommt, weil ich die nicht passiv bekomme....

Nebenbei kann ich absolut nicht verstehen, was die Bemerkung über die 1950 da zu suchen hat... Die hat nur 256 MB und wird bei Benches in 1600x1280 mit kräftig AA/AF doch ziemlich schnell nach mehr VRAM hecheln, imo ein Verbrechen so eine Karte nicht mit 512 MB anzubieten, aber mal abwarten, vielleicht wird da ja ein Hersteller in die Bresche springen.

Spasstiger
2006-12-04, 08:31:34
Also im Klartext DOOM3 und Quake4 auch dazu nehmen?
Imo reicht ein Doom-3-Engine-Game (Prey). Quake 4 und Doom 3 werden bei Savegame-Benchmarking kein großartig anderes Performanceverhalten aufweisen.

Gast
2006-12-04, 08:33:28
Ziemlich unbrauchbar, wenn ich zwar mehr Leistung bekomme, aber dafüpr auch mein PC den Start eines A380 simuliert (natürlich übertrieben). Jedes review beinhaltet heutzutage Aussagen über Lautstärke, Stromverbrauch und Hitze. Natürlich nicht bei 3dcenter. Da wird lieber wieder die Anti-NV Schiene gefahren, passend zur vorherigen MS-Vista-Bashing News. Gt, dass es andere Seiten im Netz gibt.

Gast
2006-12-04, 08:40:26
Ziemlich unbrauchbar, wenn ich zwar mehr Leistung bekomme, aber dafüpr auch mein PC den Start eines A380 simuliert (natürlich übertrieben). Jedes review beinhaltet heutzutage Aussagen über Lautstärke, Stromverbrauch und Hitze. Natürlich nicht bei 3dcenter. Da wird lieber wieder die Anti-NV Schiene gefahren, passend zur vorherigen MS-Vista-Bashing News. Gt, dass es andere Seiten im Netz gibt.

Witzig - vor einigen Monaten wurde dem 3DC Anti-Ati-Haltung unterstellt. ;D

Gast
2006-12-04, 08:42:08
Ziemlich unbrauchbar, wenn ich zwar mehr Leistung bekomme, aber dafüpr auch mein PC den Start eines A380 simuliert (natürlich übertrieben). Jedes review beinhaltet heutzutage Aussagen über Lautstärke, Stromverbrauch und Hitze. Natürlich nicht bei 3dcenter. Da wird lieber wieder die Anti-NV Schiene gefahren, passend zur vorherigen MS-Vista-Bashing News. Gt, dass es andere Seiten im Netz gibt.

Wenn ich anfügen darf:
Von der 7950GT gibts sogar eine passive Version. Wie siehts da bei ATI aus?

Gast
2006-12-04, 08:43:26
Witzig - vor einigen Monaten wurde dem 3DC Anti-Ati-Haltung unterstellt. ;D

Mir gehts weniger um Anti-NV, sondern eher darum, dass einfach wesentliche Aussage zu bestimmten Testbereichen fehlen. Und die von mir genannten sind für einige User eben sehr wichtig - und das zu recht. Stattdessen labert man seitenlang immer dasselbe.

Spasstiger
2006-12-04, 08:45:35
Wenn ich anfügen darf:
Von der 7950GT gibts sogar eine passive Version. Wie siehts da bei ATI aus?
Wer eine leise und gute Kühlung wünscht, greift zu einer Radeon X1950 Pro. Asus und Powercolor bieten hier besonders interessante Alternativkühllösungen an (Asus 0,2 Sone, Powercolor 0,9 Sone unter 3D). Und die X1950 Pro ist einer GeForce 7950 GT hinsichtlich der 3D-Leistung nur geringfügig unterlegen.

Mir gehts weniger um Anti-NV, sondern eher darum, dass einfach wesentliche Aussage zu bestimmten Testbereichen fehlen. Und die von mir genannten sind für einige User eben sehr wichtig - und das zu recht. Stattdessen labert man seitenlang immer dasselbe.
Tja, so ist es halt, wenn man das insgesamt bessere Produkt für die Sachen lobt, in denen es besser ist. Man muss sich Markenloyalismus vorwerfen lassen. In manchen Reviews (nicht bei 3DC) kommt es mir so vor, als ob teilweise absichtlich unwichtigere Fakten besonders betont werden, nur damit der Anschein von Neutralität gewahrt bleibt.
Wichtigste Kriterien bei einer 3D-Grafikkarte bleiben aber nunmal Bildqualität und 3D-Leistung. Das sind auch die Kriterien, die ihm Rahmen eines Reviews wie hier bei 3DC am Besten getestet werden können. Mir ist z.B. nicht bekannt, dass hier jemand aus der Redaktion über ein Schallmessgerät verfügt. Aber Infos darüber gibts auch in anderen Reviews (welche dafür weniger Aufwand bei den Benchmarks betrieben, z.B. nur mit Timedemos testen).

Mir gefallen die Reviews im 3DC jedenfalls immer gut und ich sehe sie auch immer nur als Ergänzung zu anderen Reviews an, nicht als die einzig wahren Reviews. Ein herausstechendes Merkmal hier ist halt das Savegame-Benchmarking. Und seit ich mal bei mir am Rechner festgestellt habe, dass Timedemos in Quake 4 teilweise dreimal so schnell ablaufen wie der zugehörige Savegame, halte ich von Timedemos auch nicht mehr soviel.

Gast
2006-12-04, 08:59:03
Wer eine leise und gute Kühlung wünscht, greift zu einer Radeon X1950 Pro. Asus und Powercolor bieten hier besonders interessante Alternativkühllösungen an (Asus 0,2 Sone, Powercolor 0,9 Sone unter 3D). Und die X1950 Pro ist einer GeForce 7950 GT hinsichtlich der 3D-Leistung nur geringfügig unterlegen.


Tja, so ist es halt, wenn man das insgesamt bessere Produkt für die Sachen lobt, in denen es besser ist. Man muss sich Markenloyalismus vorwerfen lassen. In manchen Reviews (nicht bei 3DC) kommt es mir so vor, als ob teilweise absichtlich unwichtigere Fakten besonders betont werden, nur damit der Anschein von Neutralität gewahrt bleibt.
Wichtigste Kriterien bei einer 3D-Grafikkarte bleiben aber nunmal Bildqualität und 3D-Leistung. Das sind auch die Kriterien, die ihm Rahmen eines Reviews wie hier bei 3DC am Besten getestet werden können. Mir ist z.B. nicht bekannt, dass hier jemand aus der Redaktion über ein Schallmessgerät verfügt. Aber Infos darüber gibts auch in anderen Reviews (welche dafür weniger Aufwand bei den Benchmarks betrieben, z.B. nur mit Timedemos testen).

Mir gefallen die Reviews im 3DC jedenfalls immer gut und ich sehe sie auch immer nur als Ergänzung zu anderen Reviews an, nicht als die einzig wahren Reviews. Ein herausstechendes Merkmal hier ist halt das Savegame-Benchmarking. Und seit ich mal bei mir am Rechner festgestellt habe, dass Timedemos in Quake 4 teilweise dreimal so schnell ablaufen wie der zugehörige Savegame, halte ich von Timedemos auch nicht mehr soviel.

Punkt 1:
Dann kann ich gleich ne komplett passive 7950 GT kaufen.

Punk 2:
Das halte ich für ein Gerücht. Der Trend zu leiseren Rechnern gibt es nicht erst seit gestern und er wird immer stärker, vor allem bei Wakü-Systemen. Guck mal, was manche Leute dafür ausgeben, den Rechner leise zu bekommen. Und dann wird sowas noch nichtmal in einem einzigen Satz in einem Revie erwähnt? Schwach.

Gast
2006-12-04, 09:00:05
Und vergessen wir nicht, dass das "insgesamt bessere Produkt" deiner Meinung nach eben auch 70 Flocken mehr kostet.

Gast
2006-12-04, 09:05:33
Und vergessen wir nicht, dass das "insgesamt bessere Produkt" deiner Meinung nach eben auch 70 Flocken mehr kostet.

Grade nochmal nachgeguckt:
260 € MSI 7950 GT passiv
ca. 330-350 € für eine X1900XT.
Sind 26,9 % Mehrkosten, bei nur 17 % Mehrleistung im Schnitt. Damit ist doch die 7950 GT das bessere Produkt oder etwa nicht?
Komisch, dass man damals im C2D vs. X2 das angeblich bessere Preisleistungsverhältnis von AMD auch mittel Preis und Leistungskoeffizient ermittelt hat. Nun macht man das nicht. Warum ist wohl klar.

Spasstiger
2006-12-04, 09:07:55
Punkt 1:
Dann kann ich gleich ne komplett passive 7950 GT kaufen.
Tja, nur wird die leider im Vergleich zu einer leisen X1950 Pro sehr schlecht gekühlt und kostet ein ganzes Stück mehr (die X1950 Pro mit 512 MB und AC-Kühler gibts ab 200€), obwohl die Radeon nur geringfügig langsamer ist (teilweise sogar schneller, siehe Oblivion, Gothic 3, Anno 1701).

Und vergessen wir nicht, dass das "insgesamt bessere Produkt" deiner Meinung nach eben auch 70 Flocken mehr kostet.
Eine Radeon X1900 XT 512 MB gibts für 270€: http://geizhals.at/deutschland/a184959.html.
Wo siehst du hier (http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=7950+gt&sort=p) eine GeForce 7950 GT für 200€?

Wenn du Infos zur Lautstärke suchst, dann schau in andere Reviews, die von hauptberuflichen Testern geschrieben wurden, und mecker nicht über die ehrenamtliche Arbeit von Hobby-Benchern.

P.S.: Passiv gekühlte Grafikkarten aus dem unteren High-End-Sektor erfordern heutzutage immer eine ordentliche Gehäuselüftung, um Hitzestaus zu verhindern. Da ist mir eine nahezu unhörbare aktiv gekühlte Karte lieber. Ok, bei der Radeon X1900/X1950 XT gibt es sowas nicht, das ist zu bedauern. Um einen Garantieverlust würde ich persönlich wohl nicht drumrumkommen. ;)

Spasstiger
2006-12-04, 09:16:30
Deine X1900 ist bei Atelco und HW-Versand nicht vorrätig und dann gehts direkt auf 300 € rauf.
Morgen wird die Karte wieder verfügbar sein.
Außerdem würde ich der Fairness halber eine Radeon X1950 Pro 512 MB mit der 7950 GT vergleichen. Die X1900 XT ist doch schon etwas älter (daher mehr Stromverbrauch als nötig) und teilweise auch eine ganze Leistungsklasse über der 7950 GT (siehe Oblivion, Gothic 3, Anno 1701, NfS Carbon mit Motion Blur).
Zum Thema Bildqualität hab ich jetzt ja noch gar nix gesagt. ;)
Wird bei der kommenden Midrange-Generation von Nvidia auch nicht mehr nötig sein. Und bis dahin kauft man das vernünftigere Produkt (z.B. eine Powercolor Radeon X1950 Pro 512 MB mit leisem AC-Kühler für 200€ oder Asus Radeon X1950 Pro 256 MB mit nahezu unhörbarem Kühler für 165€).

Vernünftig heißt hier btw.:
- konstant gute 3D-Leistung
- gute Bildqualität
- leise
- gute Kühlung
- gutes Preis/Leistungsverhältnis
- gute Verfügbarkeit

Bei Grafikkarten sehen meine Präferenzen momentan halt folgendermaßen aus: Lowend - Nvidia, Midrange - ATI, High-End - Nvidia. Bin also keinesfalls ATI voreingenommen, im Gegenteil, würde momentan meine Fühler gleich Richtung GeForce 8800 GTS/GTX ausstrecken. ;)

Gast
2006-12-04, 09:42:14
Morgen wird die Karte wieder verfügbar sein.
Außerdem würde ich der Fairness halber eine Radeon X1950 Pro 512 MB mit der 7950 GT vergleichen. Die X1900 XT ist doch schon etwas älter (daher mehr Stromverbrauch als nötig) und teilweise auch eine ganze Leistungsklasse über der 7950 GT (siehe Oblivion, Gothic 3, Anno 1701, NfS Carbon mit Motion Blur).
Zum Thema Bildqualität hab ich jetzt ja noch gar nix gesagt. ;)
Wird bei der kommenden Midrange-Generation von Nvidia auch nicht mehr nötig sein. Und bis dahin kauft man das vernünftigere Produkt (z.B. eine Powercolor Radeon X1950 Pro 512 MB mit leisem AC-Kühler für 200€ oder Asus Radeon X1950 Pro 256 MB mit nahezu unhörbarem Kühler für 165€).

Vernünftig heißt hier btw.:
- konstant gute 3D-Leistung
- gute Bildqualität
- leise
- gute Kühlung
- gutes Preis/Leistungsverhältnis
- gute Verfügbarkeit

Bei Grafikkarten sehen meine Präferenzen momentan halt folgendermaßen aus: Lowend - Nvidia, Midrange - ATI, High-End - Nvidia. Bin also keinesfalls ATI voreingenommen, im Gegenteil, würde momentan meine Fühler gleich Richtung GeForce 8800 GTS/GTX ausstrecken. ;)

Ich rede aber von dem Review hier und nicht, was du empfehlen würdest. Und da geht es um eine X1900XT vs. 7950GT und nichts anderes. Nur das habe ich kommentiert. Und die X1900XT ist relativ schwer zu bekommen und wenn, dann deutlich teurer als die 7950 GT. Mir gehts einzig und allein um den Test und wenn du sagst, dass die X1950 eigentlich der bessere Konkurrent zur 7950GT wäre, dann muss man sich fragen, warum man das nicht getestet hat.

Gast
2006-12-04, 09:44:10
Morgen wird die Karte wieder verfügbar sein.
Außerdem würde ich der Fairness halber eine Radeon X1950 Pro 512 MB mit der 7950 GT vergleichen.
Über die sagt der hier diskutierte Artikel aber mal gar nichts aus. :(

Spasstiger
2006-12-04, 09:45:50
Über die sagt der hier diskutierte Artikel aber mal gar nichts aus. :(
Stimmt, was ich auch etwas schade finde. Die X1950 Pro und die 7900 GS zusätzlich hättten dem Testfeld nicht geschadet, den Testaufwand aber auch glatt verdoppelt.

godess
2006-12-05, 15:27:41
Fazit: Man hat eine Grafikkarte A die 239€ kostet mit einer anderen Grafikkarte B, die 269€ kostet verglichen und dann Grafikkarte B zum "eindeutigen" Sieger erklärt, ohne zu erwähnen, dass Grafikkarte A wenigstens billiger ist.
Das sind 40€ respektive 12% Preisunterschied. Wahrlich nicht vernachlässigbar. Naja, hauptsache ATI gewinnt.
Eine Farce. Wenn das eine Produkt billiger ist als ein anderes kann man im Vergleich kein "eindeutigen" Sieger finden. Da kann man ja auch einen Smart mit mit einem 7er BMW vergleichen. Nach 3DC gewinnt natürlich der 7er (das der ein vielfaches mehr kostet wird vernachlässigt), da er ja schneller fährt und mehr Luxus bietet. Vergessen wird nur, dass sich die Meisten keinen 7er leisten können, und deswegen zum Smart greifen müssen.

Witzig - vor einigen Monaten wurde dem 3DC Anti-Ati-Haltung unterstellt. Aha, wann denn? An die Zeit kann ich mich nicht errinnern. Ich hab bei 3DC immer schon eine Anti-nVidia-Haltung bemerkt. Sie sind wahrscheinlich immer noch sauer auf nVidia, dass sie damals 3dfx geschluckt hatten(reine Vermutung).

Mr. Lolman
2006-12-05, 15:41:51
Aha, wann denn? An die Zeit kann ich mich nicht errinnern. Ich hab bei 3DC immer schon eine Anti-nVidia-Haltung bemerkt. Sie sind wahrscheinlich immer noch sauer auf nVidia, dass sie damals 3dfx geschluckt hatten(reine Vermutung).

Hast du die ganzen alten Artikel nicht gelesen? Warum bekommt den 3DC immernoch keine GraKas von ATi?

Vll. weil sie immernoch die ganzen Filtercheatartikel nachtragen, die zu dem Zeitpunkt eine einseitige Stimmung erzeugt haben, weil immer wieder auf die "Lehrbuchqualität" der Konkurrenz hingewiesen wurde - und zwar als das mit den default-settings schon längst nicht mehr der Fall war!

Jedenfalls hiess es in einem offiziellen Statement von ATI, auf die Frage warum 3DC keine Testkarten bekommt:
Wir gehen nicht davon aus, bei 3DCenter ein positives Review zu bekommen.

Undertaker
2006-12-05, 16:02:05
im moment sehe ich nichteinmal eine x1900xt für 270€ wirklich lieferbar...

hier

http://geizhals.at/deutschland/a184959.html

steht auch nur jeden tag aufs neue (seit etwa einer woche) in 1-2 tagen lieferbar, soetwas lasse ich nicht gelten... wenn es sie dann aber wirklich für 270€ gibt, zweifellos ein gutes angebot

Madkiller
2006-12-05, 16:03:13
Ich hab bei 3DC immer schon eine Anti-nVidia-Haltung bemerkt.
Glaubste nicht, daß wenn Leo ne Anti-nVidia-Haltung hätte, er im Fazit den Performanceunterschied zwischen der X1900XT und der 7950GT ohne AAA/TAA breit getreten hätte?

godess
2006-12-05, 16:12:12
Hast du die ganzen alten Artikel nicht gelesen? Warum bekommt den 3DC immernoch keine GraKas von ATi?

Vll. weil sie immernoch die ganzen Filtercheatartikel nachtragen, die zu dem Zeitpunkt eine einseitige Stimmung erzeugt haben, weil immer wieder auf die "Lehrbuchqualität" der Konkurrenz hingewiesen wurde - und zwar als das mit den default-settings schon längst nicht mehr der Fall war!

Jedenfalls hiess es in einem offiziellen Statement von ATI, auf die Frage warum 3DC keine Testkarten bekommt:Wir gehen nicht davon aus, bei 3DCenter ein positives Review zu bekommen.Brauch man ja auch nicht, man kriegt sie ja von Sapphire, die nur ATi-Grafikkarten im Angebot haben(also quasi-ATi; enge Partnerschaft mit ATi), von denen jahrelang auch immer Werbung auf der 3DC-Hauptseite zu bewundern war.

im moment sehe ich nichteinmal eine x1900xt für 270€ wirklich lieferbar...

hier

http://geizhals.at/deutschland/a184959.html

steht auch nur jeden tag aufs neue (seit etwa einer woche) in 1-2 tagen lieferbar, soetwas lasse ich nicht gelten... wenn es sie dann aber wirklich für 270€ gibt, zweifellos ein gutes angebot

Hä? Ich hab auf deinen Link geklickt, und ganz oben in der Liste war eine für 268,99€ lieferbar ab 5.12.06.

StefanV
2006-12-05, 16:20:24
im moment sehe ich nichteinmal eine x1900xt für 270€ wirklich lieferbar...

hier

http://geizhals.at/deutschland/a184959.html

steht auch nur jeden tag aufs neue (seit etwa einer woche) in 1-2 tagen lieferbar, soetwas lasse ich nicht gelten... wenn es sie dann aber wirklich für 270€ gibt, zweifellos ein gutes angebot
Hm, wenn ich mich recht erinnere, hatte die 1900er im Review nur 256MB und die gibts ab ~240€ (http://geizhals.at/deutschland/a223950.html), womit die 'Argumente' von goddess keine mehr sind, zumindest was den Preis betrifft, da beide gleich teuer...

Silvir
2006-12-05, 16:44:10
Fazit: Man hat eine Grafikkarte A die 239€ kostet mit einer anderen Grafikkarte B, die 269€ kostet verglichen und dann Grafikkarte B zum "eindeutigen" Sieger erklärt, ohne zu erwähnen, dass Grafikkarte A wenigstens billiger ist.


Keine Ahnung, welchen Artikel du meinst...in jenem, welchen ich gelesen habe, wird durchaus auf das Preisargument eingegangen...:|

Und dennoch ist es schwer, die Radeon X1900 XT dann tatsächlich zum Testsieger zu erklären. Denn wie in der Einleitung schon ausgeführt, ist diese Karte Auslaufware, was sich derzeit eben auch schon auf die Preissituation niederschlägt: Wo vor wenigen Monaten eine Radeon X1900 XT mit 512 MB Grafikkartenspeicher noch für knapp unter 300 Euro erhältlich war, ist diese Karte derzeit kaum für unter 340 Euro zu finden. Dabei entspricht der aktuelle Preisunterschied zur GeForce 7950 GT 512MB, welche für ca. 270 Euro angeboten wird, durchaus dem Unterschied bei Performance und Bildqualität - nur daß die Radeon X1900 XT dann natürlich nicht mehr mit dem besseren Preis/Leistungsverhältnis werben kann.

Gast
2006-12-05, 16:49:08
Keine Ahnung, welchen Artikel du meinst...in jenem, welchen ich gelesen habe, wird durchaus auf das Preisargument eingegangen...:|

Es wir eben nicht in der Art drauf eingegangen, wie damals bei C2D gegen AMD. Man hat hier ganz klar anders gewichtet, um ATI vorne zu sehen.
Ich schreibs gerne nochmal:

Grade nochmal nachgeguckt:
260 € MSI 7950 GT passiv
ca. 330-350 € für eine X1900XT.
Sind 26,9 % Mehrkosten, bei nur 17 % Mehrleistung im Schnitt. Damit ist doch die 7950 GT das bessere Produkt oder etwa nicht?
Komisch, dass man damals im C2D vs. X2 das angeblich bessere Preisleistungsverhältnis von AMD auch mittel Preis und Leistungskoeffizient ermittelt hat. Nun macht man das nicht. Warum ist wohl klar.

Gast
2006-12-05, 16:50:08
Hast du die ganzen alten Artikel nicht gelesen? Warum bekommt den 3DC immernoch keine GraKas von ATi?


Bist du tatsächlich einer derjenigen, die glauben, dass Leo keine Karten wegen der ach so tollen ktitischen berichte bekommt? Hahaha, dass es solche Leute noch gibt ist ja wirklich unfassbar.

Undertaker
2006-12-05, 16:51:25
Hm, wenn ich mich recht erinnere, hatte die 1900er im Review nur 256MB und die gibts ab ~240€ (http://geizhals.at/deutschland/a223950.html), womit die 'Argumente' von goddess keine mehr sind, zumindest was den Preis betrifft, da beide gleich teuer...

nein, ich glaube die hatte 512mb


Hä? Ich hab auf deinen Link geklickt, und ganz oben in der Liste war eine für 268,99€ lieferbar ab 5.12.06.

aber eben noch nicht lieferbar, und da der termin die letzten tage dauerhaft verschoben wurde glaube ich da noch nicht so recht dran, bis wirklich "auf lager" zu lesen ist... das gleiche spielchen war auch kurz nach dem auslaufen der 7900gto zu beobachten, also sollte man hier noch kurz abwarten was passiert

Gast
2006-12-05, 16:53:59
Hm, wenn ich mich recht erinnere, hatte die 1900er im Review nur 256MB und die gibts ab ~240€ (http://geizhals.at/deutschland/a223950.html), womit die 'Argumente' von goddess keine mehr sind, zumindest was den Preis betrifft, da beide gleich teuer...

Ja klar, Payne:

Sapphire Radeon X1900 XT 512MB, 625/725 MHz, Catalyst 6.10 (A.I. low)
nVidia GeForce 7950 GT 512MB, 550/700 MHz, nVidia 93.71 ("High Quality")

LoL.

Silvir
2006-12-05, 17:18:07
Es wir eben nicht in der Art drauf eingegangen, wie damals bei C2D gegen AMD. Man hat hier ganz klar anders gewichtet, um ATI vorne zu sehen.
Ich schreibs gerne nochmal:

Grade nochmal nachgeguckt:
260 € MSI 7950 GT passiv
ca. 330-350 € für eine X1900XT.
Sind 26,9 % Mehrkosten, bei nur 17 % Mehrleistung im Schnitt. Damit ist doch die 7950 GT das bessere Produkt oder etwa nicht?
Komisch, dass man damals im C2D vs. X2 das angeblich bessere Preisleistungsverhältnis von AMD auch mittel Preis und Leistungskoeffizient ermittelt hat. Nun macht man das nicht. Warum ist wohl klar.

Aber aufgrund des fehlenden Preis-/Leistungsindex, Leo und Madkiller Anti-NV-Tendenzen nachzusagen, finde ich ein wenig übertrieben. Insbesondere, da es sich bei der X1900XT ja um ein Auslaufmodell handelt und sich daher Preise und Verfügbarkeit täglich/stündlich ändern ( hier bei Alternate zur Zeit für 279,- EUR http://geizhals.at/deutschland/a184832.html).

Leos Haupkritikpunkt gegenüber der 7950GT ist doch, daß trotz des zeitlichen Abstandes zwischen dem Erscheinen der beiden Karten, es nvidia nicht gelungen ist, in dieser Leistungsklasse ATI etwas entgegenzusetzen...und dieses bei schlechterer BQ, da G7x (und da gebe ich dir Recht, die 3DC-Crew sind natürlich schon BQ-Fetischisten, und daher der X1x00-Reihe eher wohlgesonnen:wink: ).

Gruß

Mr. Lolman
2006-12-05, 18:45:45
Bist du tatsächlich einer derjenigen, die glauben, dass Leo keine Karten wegen der ach so tollen ktitischen berichte bekommt? Hahaha, dass es solche Leute noch gibt ist ja wirklich unfassbar.

Was ist daran so abwegig?

Gast
2006-12-05, 19:23:32
Was ist daran so abwegig?

Nichts, nur stimmt diese Legende eben nicht.

godess
2006-12-05, 20:00:30
Leos Haupkritikpunkt gegenüber der 7950GT ist doch, daß trotz des zeitlichen Abstandes zwischen dem Erscheinen der beiden Karten, es nvidia nicht gelungen ist, in dieser Leistungsklasse ATI etwas entgegenzusetzen...und dieses bei schlechterer BQ, da G7x (und da gebe ich dir Recht, die 3DC-Crew sind natürlich schon BQ-Fetischisten, und daher der X1x00-Reihe eher wohlgesonnen ).

Brauchen sie doch nicht, die X1900 XT als "alte" Highend-Karte wird bald vom Markt verschwinden, außerdem wird nVidia sicher nicht noch mit mit einer GeForce7 kontern, wenn sie bereits die 8er launchen werden/gelauncht haben.

Silvir
2006-12-05, 21:47:46
Brauchen sie doch nicht, die X1900 XT als "alte" Highend-Karte wird bald vom Markt verschwinden, außerdem wird nVidia sicher nicht noch mit mit einer GeForce7 kontern, wenn sie bereits die 8er launchen werden/gelauncht haben.

Du hast natürlich Recht in Bezug auf die X1900XT 512MB, da es sich um ein Auslaufmodell handelt, und daher hat sich dieses Thema erledigt. Aber Nvidia muss sich diesen Vergleich schon gefallen lassen, schließlich haben sie ja diese Karte, trotz des anstehenden G80 (der spielt ja auch in einer anderen Liga und bis die entsprechenden Midrange-Derivate herauskommen, wird es ja auch noch ein wenig dauern), herausgebracht. Und ein Refresh der 7900GT war ja auch notwendig, da ja mit jener der Abstand zur X1900XT wesentlich größer war, d.h. Nvidia hat/hatte im oberen Midrange (wenn man den G80 mit einbezieht) ATI nichts entgegenzusetzen. Das Problem ist ja, dass die X1900XT (512) einfach zu „schell“ war, sprich der Abstand zur XTX oder 7900GTX eher gering war (keine Ahnung, was sich ATI da gedacht hat). Eine zu schnelle 7950GT hätte die 7900GTX überflüssig gemacht, welche ja auch noch abverkauft werden möchte. Was kann man daher zur 7950GT sagen...etwas langsamer als eine X1900XT, dabei etwas günstiger, aber mit etwas schlechterer Bildqualität (haben niemals einen G7x besessen, daher gebe ich einfach wieder, was mir die Reviews erzählen). Ohne mir in den letzten Stunden Leos Review angeschaut zu haben, ist das doch so ziemlich die Quintessenz seines Berichtes. Eine Anti-NV-Tendenz, um auf das eigentliche Thema wieder zurückzukommen, kann ich da nun wirklich nicht ausmachen.

Gruß

godess
2006-12-05, 22:09:17
Die X1900XT ist doch grad nur so billig, weil sie ein Auslaufmodell. Sonst würde sie preislich eher in Richtung 7900GTX/X1950XT gehen, da auch Performance eher in diese Richtung geht, also Highend. Sprich so um die 330-360€.
Aber nur weil sie jetzt etwas billiger ist, meint 3DC jetzt, dass die X1900XT aufeinmal midrange ist, und lässt sie gegen eine eindeutige midrange antreten. Man hat also Äpfel mit Birnen,obwohl die Birne in der Performance eine Klasse höher agiert und auch preislich über dem Apfel liegt(ca. 40-60€), verglichen, und dabei die Birne auch noch zum Sieger erklärt.

Das regt mich eindach auf, der Artikel ist wie gesagt nur da, um die 7950GT zu bashen.

Gast
2006-12-06, 17:28:19
ja ja godess du nv-fan-rigendwas.

Sieh es mal ganz klar gegen die Ati hat die NV7950GT halt keine Chance.
Und das hat dieser Test nur ausgesagt.
Wenn man jetzt noch eines der Auslaufmodelle für den entsprechenden Preis
bekommt hat man natürlich auch Preis-Leistungstechnisch ne viel bessere Karte
als das NV-Produkt.

Die neue x1950xt kriegt man auch schon teilweise um 300eur.
Da ist das Preisleistungsverhältnis doch ok.

Und ne X1950Pro kostet fast 200eur (mit 512mb) und hat fast die gleiche Leistung wie die NV7950gt.

godess
2006-12-06, 17:34:25
Von Gästen, die zu feige sind, sich einzuloggen und sowas zu sagen muss ich nicht abgeben. Außerdem ist es doch wahr, die X1900 XT ist eine Klasse stärker als die 7950 GT, preislich aber auch. Deswegen hinkt der ganze Vergleich. Und in einem hinkeden Vergleich kann es keinen Sieger geben.

Undertaker
2006-12-06, 17:48:15
ja ja godess du nv-fan-rigendwas.

Sieh es mal ganz klar gegen die Ati hat die NV7950GT halt keine Chance.
Und das hat dieser Test nur ausgesagt.
Wenn man jetzt noch eines der Auslaufmodelle für den entsprechenden Preis
bekommt hat man natürlich auch Preis-Leistungstechnisch ne viel bessere Karte
als das NV-Produkt.

Die neue x1950xt kriegt man auch schon teilweise um 300eur.
Da ist das Preisleistungsverhältnis doch ok.

Und ne X1950Pro kostet fast 200eur (mit 512mb) und hat fast die gleiche Leistung wie die NV7950gt.

das die x1900xt schneller ist hat keiner bestritten... nur ist der vorsprung in anderen tests weit geringer und da der preis auch niedriger ist, das p/l net unbedingt besser...

godess
2006-12-06, 18:19:18
Der Test hat zudem ausgesagt, dass das P/L-Verhältnis der ATI-Karte nicht besser ist.

Gast
2006-12-06, 19:22:06
1. Nutzlos: Wenn teilweise zwingend benötigte Gamefixes abgeschaltet werden, isses nutzlos. Zudem "eher nutzlos" - das "eher" schwächt das wie von mir geplant entsprechend ab.


welcher zwingend benögigte gamefix wird denn mit AI ausgeschalten, nenn mir nur einen einzigen? ach ja riddick zählt nicht mehr, da es mittlerweile einen patch für die software gibt, ansonsten ist mir kein zwingend benögigter gamefix bekannt.

Gast
2006-12-06, 19:43:15
ohne jetzt den ganzen artikel gelesen zu haben sind mir gleich am anfang ein paar fehler aufgefallen:

seite 2: die AF-maske vom 8xS-AA von NV ist falsch.
http://www.3dcenter.org/images/x1900xt_vs_7950gt/aa_nvidia_samplemuster_8x.png

die korrekte maske ist um genau 90° gedreht, wobei es bei den neueren treibern keine unterschiede zwischen OGL und D3D gibt. frühere treiber zeigen unter OGL die maske von eurem artikel, in D3D war aber immer schon 1x2SSAA und nicht 2x1SSAA im einsatz.

danach, nächste seite folgender absatz:

Auf den ersten Blick wird hier schon klar, daß nVidias default-Modus nicht mit ATIs default-Modus vergleichbar ist: Während dieser bei ATI auf einen trilinearen Grundfilter inklusive einer doch schon anständig zu nennenden Gesamtqualität setzt, bekommt man bei nVidia hier nur einen brilinearen Grundfilter samt mehrerer mittelschwerer bis gravierender Filter-"Optimierungen".

ich hätte echt nicht gedacht dass ihr darauf reinfallt. mit aktivem AI gibt es bei ATI NUR bei gefärbten mipmaps. im "normalen" spielbetrieb gibt es bei ati genauso "brilinear". diesen hinweis sucht man vergeblich, im gegenteil, es wird sogar darauf hingewiesen dass es bei ATI angeblich standardmäßig trilinear gibt.


dieser absatz stimmt zumindest auf nvidia-seite überhaupt nicht:
Und letztlich haben wir uns nachfolgend bei der Darstellung der herauskommenden Filterqualität wieder allein auf Direct3D und dort das Tool D3D AF-Tester verlassen, da OpenGL heutzutage im Spiel-gesteuerten Modus keine Unterschiede mehr zeigt.

die diversen "filteroptimierungen" haben teilweise deutlich unterschiedliche auswirkungen in D3D und OGL.


auch dieser absatz ist falsch:

Unter genau dieser Maßgabe sind wir auch beim Thema "anisotroper Filter" unsere nachfolgenden Benchmarks angetreten: Unabhängig davon, ob die Modi wirklich gegeneinander vergleichbar sind, haben wir generell die jeweils höchstmöglich erreichbare Filterqualität gegeneinander angesetzt.

auch das stimmt nicht, die höchste BQ gibt es bei ATI mit deaktiviertem AI und area-AF, wobei der vergleich mit NV dann natürlich komplett sinnlos wären.
im sinne der vergleichbarkeit ist es also imo durchaus sinnvoller AI auf low zu lassen wenn man schon das AreaAF aktiviert.
am besten vergleichbar wäre natürlich AI-off vs. HQ, allerdings wie ihr bereits erwähnt habt ist es auf ati-seite wohl kaum sinnvoll auf AreaAF zu verzichten.
in dem sinn halte ich die gegenüberstellung der aktuellen filtereinstellungen durchaus als ein akzeptables mittelmaß, allerdings nicht die aussage dass es sich um die höchstmögliche qualitätseinstellung bei ATI handelt.

godess
2006-12-06, 21:17:19
Owned. Komisch, dass all diese Fehler (wenn der Gast die Wahrheit spricht) alle positiv für ATI arbeiten bzw. schlecht für nVidia.

Gast
2006-12-06, 21:45:14
Owned. Komisch, dass all diese Fehler (wenn der Gast die Wahrheit spricht) alle positiv für ATI arbeiten bzw. schlecht für nVidia.

Und bei Intel vs. AMD hat man genau gegenteilig argumentiert. So wird die Welt so gedreht, bis es zu Leos Einstellung passt. Kein Wunder, dass die Hersteller keine Testsamples zur Verfügung stellen.

LovesuckZ
2006-12-06, 22:49:35
ich hätte echt nicht gedacht dass ihr darauf reinfallt. mit aktivem AI gibt es bei ATI NUR bei gefärbten mipmaps. im "normalen" spielbetrieb gibt es bei ati genauso "brilinear". diesen hinweis sucht man vergeblich, im gegenteil, es wird sogar darauf hingewiesen dass es bei ATI angeblich standardmäßig trilinear gibt.


Das waren noch Zeiten als die Verarsche herauskam.
http://www.techreport.com/etc/2004q2/filtering/index.x?pg=1

Gast
2006-12-07, 08:43:59
@godess du vergisst aber das die radeon beim schreiben des artikels genau in dem preissegment der nv7950gt lag. Das die jetzt teurer ist liegt nur daran das die nicht mehr verfügbar ist.
Die NV hat beim Release auch um die 300eur gekostet, mein Kollege hat sich erst
vor 3 Wochen eine für 290eur gekauft.

Apropos passivkühlung, die n7950gt zB von MSI hat da wohl einige Probleme
da sie auch bei guter Belüftung und trotz zusätlichen Lüfter schon bei ner Menge von Leuten abgeraucht ist.

Undertaker
2006-12-07, 11:28:09
@godess du vergisst aber das die radeon beim schreiben des artikels genau in dem preissegment der nv7950gt lag. Das die jetzt teurer ist liegt nur daran das die nicht mehr verfügbar ist.
Die NV hat beim Release auch um die 300eur gekostet, mein Kollege hat sich erst
vor 3 Wochen eine für 290eur gekauft.

Apropos passivkühlung, die n7950gt zB von MSI hat da wohl einige Probleme
da sie auch bei guter Belüftung und trotz zusätlichen Lüfter schon bei ner Menge von Leuten abgeraucht ist.

wofür gibts garantie? die x1900xt, welche bei mir unter 3d bis zu 96°C erreichte, wird wohl ebenfalls mehr gefährdet sein als die 7900gtx, welche kaum über 55°C unter 3d kommt...

Vertigo
2006-12-07, 11:31:15
wofür gibts garantie? die x1900xt, welche bei mir unter 3d bis zu 96°C erreichte, wird wohl ebenfalls mehr gefährdet sein als die 7900gtx, welche kaum über 55°C unter 3d kommt...
Toll - Vergleiche Luftkühlung gg. Wasserkühlung macht natürlich Sinn ... :rolleyes: ;)

Undertaker
2006-12-07, 12:33:32
Toll - Vergleiche Luftkühlung gg. Wasserkühlung macht natürlich Sinn ... :rolleyes: ;)

das war ein vergleich meiner (ex) x1900xt @air vs. meine (aktuelle) 7900gtx @air... locker flockig 40°C unterschied bei ansonsten identischer umgebung (4x80mm lüfter @800rpm im case) ;(

Vertigo
2006-12-07, 12:39:13
das war ein vergleich meiner (ex) x1900xt @air vs. meine (aktuelle) 7900gtx @air... locker flockig 40°C unterschied bei ansonsten identischer umgebung (4x80mm lüfter @800rpm im case) ;(
Wuz? :|

Ich hatte nie eine 7900GTX, aber in den Reviews lese ich stets >65°C unter Last. Meine (ex) X1900XT hatte @default ~ 85°C unter Last, die aktuelle X1950XTX ist bei ~ 80°C, die zwischenzeitliche 8800GTS lag im idle bei 77°C und auch bei ~85°C unter Last. Allerdings habe ich diese Werte nur durch Software (Rivatuner) ermittelt und nicht richtig gemessen. Sonst war das Sys identisch, TT Xaser III mit allen Lüftern @min. ;(

Gast
2006-12-07, 15:22:16
In jedem Rechner gibbet ne andere Luftzirkulation und
diese passivgekühlte NV scheint nicht gerade überlegt konstruiert worden
zu sein (vom Kühlsystem her) wenn sie schon bei derart vielen Leuten kaputt geht. Ich warte mal wie die r600 wird.

dllfreak2001
2006-12-07, 15:27:59
Ich finde der Bericht ist schon ganz ok.
nur der Zeitpunkt hat da so reingepfuscht das es jetzt ziemlich unfair aussieht, muss ich zugeben.

An das 3dc-Team bitte macht mal nen review zu der x1950pro, x1950xt und vor allem wie sich die 256MB XT gegen die konkurenz mit 512MB schlägt (vielleicht wieder mit der 7950gt als Konkurent).
Finde ich viel interessanter

Undertaker
2006-12-07, 15:36:39
Wuz? :|

Ich hatte nie eine 7900GTX, aber in den Reviews lese ich stets >65°C unter Last. Meine (ex) X1900XT hatte @default ~ 85°C unter Last, die aktuelle X1950XTX ist bei ~ 80°C, die zwischenzeitliche 8800GTS lag im idle bei 77°C und auch bei ~85°C unter Last. Allerdings habe ich diese Werte nur durch Software (Rivatuner) ermittelt und nicht richtig gemessen. Sonst war das Sys identisch, TT Xaser III mit allen Lüftern @min. ;(

von den 96°C (normale zimmertemp) hab ich sogar noch nen screen:

http://666kb.com/i/11fbfgbwjjjlt.jpg

ok, waren auch 50mhz mehr auf dem chip, aber ob das groß was ausmacht ;)

von der 7900gtx kann ich gerne gleich nochmal ein bildchen machen, kommt gleich

dllfreak2001
2006-12-07, 15:39:08
Ja und dann wunderst du dich das die aufheizt.
Was ist denn das fürn Vergleich?

Undertaker
2006-12-07, 15:48:00
Ja und dann wunderst du dich das die aufheizt.
Was ist denn das fürn Vergleich?

ich versteh gerade nicht was du meinst... ich will touchdown nur zeigen, um wieviel kühler die gtx im vergleich zu xt läuft...?

edit: hier die gtx

http://666kb.com/i/ajvyx87p57xfm326p.jpg

Vertigo
2006-12-07, 15:50:25
ich versteh gerade nicht was du meinst... ich will touchdown nur zeigen, um wieviel kühler die gtx im vergleich zu xt läuft...?
Natürlich glaube ich Dir deine Werte - auch ohne Screenshots. Ich war nur etwas verwundert, da meine Werte doch etwas anders sind ... ;)

Undertaker
2006-12-07, 15:52:38
Natürlich glaube ich Dir deine Werte - auch ohne Screenshots. Ich war nur etwas verwundert, da meine Werte doch etwas anders sind ... ;)

ich habe interessanteweise ja auch das xaser III (aber seitenlüfter ausgebaut), ka, evntl lag ja der lüfter der x1900xt etwas ungünstig im luststrom oder so... wer weiß

Turiz
2006-12-07, 15:52:54
... die zwischenzeitliche 8800GTS lag im idle bei 77°C und auch bei ~85°C unter Last....
Sorry für OT. Warum verwendest du die 8800GTS nicht mehr?

Vertigo
2006-12-07, 15:59:27
ich habe interessanteweise ja auch das xaser III (aber seitenlüfter ausgebaut), ka, evntl lag ja der lüfter der x1900xt etwas ungünstig im luststrom oder so... wer weiß
Bei mir sind die seitlichen Lüfter noch in Betrieb - das macht bei mir schon einen Unterschied von ~10°C (gemessen mit dem mitgelieferten DMS :biggrin:).
Sorry für OT. Warum verwendest du die 8800GTS nicht mehr?
Wegen einiger Unzulänglichkeiten, die zwar zum Teil auf den Treiber zurückzuführen sind, aber mir dennoch die Freude über die teils wirklich beeindruckenden Benchmark-Werte verhagelt haben.

Undertaker
2006-12-07, 16:04:38
Bei mir sind die seitlichen Lüfter noch in Betrieb - das macht bei mir schon einen Unterschied von ~10°C (gemessen mit dem mitgelieferten DMS :biggrin:).

Wegen einiger Unzulänglichkeiten, die zwar zum Teil auf den Treiber zurückzuführen sind, aber mir dennoch die Freude über die teils wirklich beeindruckenden Benchmark-Werte verhagelt haben.

dann hätte die gtx ja 47°C :D bei der x1900xt waren die an der seite übrigens noch drin (musste erst wegen dem scythe mine auf dem c2d weg), aber die haben bei mir eh nie mehr als 1°C ausgemacht - nur 800rpm und dann noch staubfilter davor lassen nicht viel durch... aber ich glaube wir kommen jetzt hier zu sehr ot ;)

godess
2006-12-07, 19:39:40
Ne warum? Das der Artikel mit Vorsatz nVidia basht haben wir ja geklärt.

Xmas
2006-12-07, 23:03:53
Man liest halt was man lesen will.

Gast
2006-12-08, 14:24:29
Ne warum? Das der Artikel mit Vorsatz nVidia basht haben wir ja geklärt.

das würde ich zwar nicht sagen, aber es wurden durchaus auf beiden seiten einige wichtige informationen unterschlagen, und zwar auf ati-seite eher mehr, ohne jetzt jemandem eine böse absicht unterstellen zu wollen.

dllfreak2001
2006-12-08, 17:55:24
@godess, dir ist nicht mehr zu helfen.
Typisch NV-Kiddie...
Ich will ja NV nicht schlecht machen aber solcher typen wie dich gibt es merheiltich bei NV. Dieser unwille zu glauben das es der Konkurent auch mal
besser machen kann ist mir unverständlich.

godess
2006-12-08, 20:53:17
Offensichtlich hast du den Artikel garnicht und nur die Hälfte meiner Posts gelesen/verstanden,

tokugawa
2006-12-08, 21:56:55
@godess, dir ist nicht mehr zu helfen.
Typisch NV-Kiddie...
Ich will ja NV nicht schlecht machen aber solcher typen wie dich gibt es merheiltich bei NV. Dieser unwille zu glauben das es der Konkurent auch mal
besser machen kann ist mir unverständlich.

"solcher typen wie dich gibt es herheiltlich bei NV" ist eine Aussage, die ebenfalls fanboyish ist. Würd dich bitten solche Meldungen in Zukunft zu unterlassen.

Oder hast du Fanboy-Studien durchgeführt und hast echte Zahlen vorzuweisen? Nein? Gut.

Was am meisten nervt sind Leute, die Thesen aufstellen, die sie nur rein aus ihrer (geringen) Scheuklappenwahrnehmung heraus deduzieren.

Ich will keine NV-Fanboys verteidigen, aber dass es Fanboys "mehrheitlich bei NV" gibt, ist doch eine wertlose Aussage!

godess
2006-12-08, 22:46:48
Ich bin auch kein Fanboy. Ich find trotzdem, dass der Artikel keinen Sinn, außer die 7950 GT mit einer offensichtlich stärkeren (und das ist bekannt) Karte zu schlagen. Also kam nichts bei raus, außer das was jeder weiß. Aber gut, dass man es nochmal plattgetreten hat.

Madkiller
2006-12-09, 09:51:11
Ich find trotzdem, dass der Artikel keinen Sinn, außer die 7950 GT mit einer offensichtlich stärkeren (und das ist bekannt) Karte zu schlagen.
In dem Artikel wird ziemlich konkret aufgezeigt, wieviel CPU-Leistung man braucht... Sinnlos?
In dem Artikel wird auch ziemlich konkret aufgezeigt, mit welchen Settings bei den jeweiligen GraKas es noch soweit spielbar ist - oder auch nicht... Sinnlos?

Also kam nichts bei raus, außer das was jeder weiß. Aber gut, dass man es nochmal plattgetreten hat.
Bemängelst du das bei jedem Artikel, der etwas behandelt, das (auf ähnliche Weise) schon von anderen behandelt wurde?
Dann hast du viel zu tun.
btw
Da hier völlig anders wie wo anders getestet wurde, kam garantiert nicht genau das Selbe wie bei den anderen raus.

Gast
2006-12-09, 12:35:39
Warum steht im Artikel auf Seite 3, dass bei der x1900xt unter AI-low ein trilinearer Grundfilter zum Einsatz kommt? Das ist falsch. Trilinear gibt es mit AI-low nur bei eingefärbten Mips. In Spielen gibt es nur "brilinear".

deekey777
2006-12-09, 12:44:58
Warum steht im Artikel auf Seite 3, dass bei der x1900xt unter AI-low ein trilinearer Grundfilter zum Einsatz kommt? Das ist falsch. Trilinear gibt es mit AI-low nur bei eingefärbten Mips. In Spielen gibt es nur "brilinear".
Kann man das irgendwie belegen (Vergleichsbilder oder Differenz-Bild)?
Und es wird nicht brilinear gefiltert, sondern adaptiv. :wink: :biggrin:
Ne warum? Das der Artikel mit Vorsatz nVidia basht haben wir ja geklärt.
Damit du weißt, was Bashen ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=144744

Glaubste nicht, daß wenn Leo ne Anti-nVidia-Haltung hätte, er im Fazit den Performanceunterschied zwischen der X1900XT und der 7950GT ohne AAA/TAA breit getreten hätte?
AAA gegen TMSAA würde schon ausreichen.

Gast
2006-12-09, 15:09:33
Kann man das irgendwie belegen (Vergleichsbilder oder Differenz-Bild)?


mit differenzbildern ja.

godess
2006-12-10, 04:02:00
@ DK777)
Ich brauch nur in die letzte Zeile in deiner Signatur zu schauen, um deinen Post mit guten Gewissen ignorieren zu können(auch wenn ich es letztenendes nicht getan hab ;) ).

StefanV
2006-12-10, 04:34:31
@ DK777)
Ich brauch nur in die letzte Zeile in deiner Signatur zu schauen, um deinen Post mit guten Gewissen ignorieren zu können(auch wenn ich es letztenendes nicht getan hab ;) ).
Kannst du bitte näher Erläutern, wie du zu diesem Schluss kommst?

Madkiller
2006-12-10, 09:29:44
@ DK777)
Ich brauch nur in die letzte Zeile in deiner Signatur zu schauen, um deinen Post mit guten Gewissen ignorieren zu können(auch wenn ich es letztenendes nicht getan hab ;) ).
Und mit welcher Begründung ignorierst du meine Fragen?

deekey777
2006-12-10, 14:11:34
@ DK777)
Ich brauch nur in die letzte Zeile in deiner Signatur zu schauen, um deinen Post mit guten Gewissen ignorieren zu können(auch wenn ich es letztenendes nicht getan hab ;) ).
Ist das aber ein billige Ausrede für deine sinnlosen Kommentare.
Ok:
Der Artikel hat seinen Sinn, nVidias 7950GT zu bashen, erfüllt.
Na zeig mal, wo genau gegen nVidia gebasht wird.
Naja, ich find, dass die Spieleauswahl ein Witz ist, und das daraus folgende Fazit natürlich auch. Fünf Spiele reichen bei 3DC wohl aus, um eine Grafikkarte über eine andere Siegen zu lassen.
Wenn ich mir anschaue, was die letzten Umfragen gezeigt haben, was die User des Forums so spielen, war und ist die Auswahl der Spiele sehr gelungen.

Alleine schon, das die Tabelle am Ende zeigt, um wie viel Prozent die Radeon besser ist, als die GeForce, spricht wohl 1000 Bände.
Und weiter? Was ist daran so falsch? Ähnlich verfahren sehr viele Tester (zB iXBT).

Ich bitte wiederholt um mehr Objektivität beim 3DC-Team.
Und das heißt?
[...]

Und nochmal: Ich hab sicher kein Problem damit, das die 7950GT langsamer als die 1900XT. Ich stör mich nur daran, wie die Ergebnisse präsentiert und interpretiert werden. Und natürlich auch an dem was Undertaker sagt: "
alles was hier bemängelt wird, ist das die 7950gt in vielen dingen verurteilt wird, während man bei der x1900xt einiges unter den tisch fallen lässt..."
Es ist doch so. Die nVidia-Schwächen werden bis aufs letzte ausgelutscht, während ATis weitgehen ignoriert werden. Und wenn man sich doch einmal zu einem Mangel an einer ATi Karte äußert, wird natürlich gleich der Quervergleich in Form von "nVdia macht es noch schlechter" etc. angestellt.
Dann nenn mal die Schwächen der X1900XT.
Fazit: Man hat eine Grafikkarte A die 239€ kostet mit einer anderen Grafikkarte B, die 269€ kostet verglichen und dann Grafikkarte B zum "eindeutigen" Sieger erklärt, ohne zu erwähnen, dass Grafikkarte A wenigstens billiger ist.
Das sind 40€ respektive 12% Preisunterschied. Wahrlich nicht vernachlässigbar. Naja, hauptsache ATI gewinnt.
Eine Farce. Wenn das eine Produkt billiger ist als ein anderes kann man im Vergleich kein "eindeutigen" Sieger finden. Da kann man ja auch einen Smart mit mit einem 7er BMW vergleichen. Nach 3DC gewinnt natürlich der 7er (das der ein vielfaches mehr kostet wird vernachlässigt), da er ja schneller fährt und mehr Luxus bietet. Vergessen wird nur, dass sich die Meisten keinen 7er leisten können, und deswegen zum Smart greifen müssen.
Bashen macht Spaß.

Aha, wann denn? An die Zeit kann ich mich nicht errinnern. Ich hab bei 3DC immer schon eine Anti-nVidia-Haltung bemerkt. Sie sind wahrscheinlich immer noch sauer auf nVidia, dass sie damals 3dfx geschluckt hatten(reine Vermutung).
Aha. Ich tippe, du bist hier nicht sehr oft, wenn du so etwas schreibst.
Brauchen sie doch nicht, die X1900 XT als "alte" Highend-Karte wird bald vom Markt verschwinden, außerdem wird nVidia sicher nicht noch mit mit einer GeForce7 kontern, wenn sie bereits die 8er launchen werden/gelauncht haben.
Und die 7950GT ist ...?
Jetzt überspringe ich einiges.
Von Gästen, die zu feige sind, sich einzuloggen und sowas zu sagen muss ich nicht abgeben. Außerdem ist es doch wahr, die X1900 XT ist eine Klasse stärker als die 7950 GT, preislich aber auch. Deswegen hinkt der ganze Vergleich. Und in einem hinkeden Vergleich kann es keinen Sieger geben.
Und wenn du nochmal so etwas schreibst, wirst du in diesem Forum nichteinmal als Gast schreiben dürfen.

tokugawa
2006-12-10, 17:43:23
Schwächen der X1900XT aus praktischer Day-by-Day-Erfahrung (ich hab ja wie gesagt, beide Karten):

- laut (die 7950 GT würd ich aber auch nicht als leise bezeichnen)
- Kein FP-Filtering, nicht mal bei FP16 (ich bräucht's, hab aber keine Lust extra für die ATI das "nachzuprogrammieren" wie es das ATI-SDK vorschlägt) - find immer lustig wenn auf das fehlende FP-AA ("HDR+AA") der NVIDIA verwiesen wird, aber nicht auf das fehlende FP-Filtering bei ATI, obwohl zugegebenermaßen FP-Filtering leichter zu emulieren ist.
- Kein Vertex-Texture-Fetch (ich tät's brauchen, und das Render-To-Vertexbuffer-Interface unter DirectX, das auch im ATI-SDK vorgeschlagen wird, ist unglaublich häßlich und unbenutzbar, zumindest wenn man multiple Renderpfade verhindern will)
- Treiber-Oddities (etwa bei Z-Only-passes und deaktiviertem Z-Write nachher hab ich schon haarsträubende Anomalien erlebt, die vermutlich vom effizienteren Hier-Z kommen, oder etwa dass man den Rechner mit einem Aufruf von DrawPrimitive rebooten kann, wenn man falsche Parameter eingibt, die bei NVIDIA abgefangen werden)


Die Argumente sind für "Normalnutzer" denke ich kaum wichtig, aber es ist trotzdem wichtig herauszustreichen dass die X1900 XT jetzt auch nicht die "Alle-Werden-Glücklich"-Karte schlechthin ist. Ich hab mit meiner GeForce 7950 GT mehr Spaß als mit der ATI. Für reine Spieler dürfte es anders sein.

LovesuckZ
2006-12-10, 17:50:16
Kann man das irgendwie belegen (Vergleichsbilder oder Differenz-Bild)?


Warum sollte etwas belegt werden, welches als Normal angesehen wird?
Ich meine, dass die Erde eine Kugel und eine Scheibe ist, muss auch nicht nochmal bewiesen werden.

dllfreak2001
2006-12-11, 11:43:17
@tokugwa
Das es mehr NV-Fanboys gibt kann ich zwar nicht direkt beweisen aber man
kann es ableiten. Also es gibt direkt ne größere Menge an NV-User als
ATI-User. NV macht massiv mehr Werbung was zu einer stärkeren Fanboy -Bildung führen kann. Aus eigener Erfahrung habe ich bis jetzt mehrheitlich NV-Fanboys gesehen, das heißt ("Eine GF5200 ist schneller als ne Radeon 9800pro"). Seit jeher schwirrt in der Comunity immer noch das ATI&Treiber-Argument herum, das heute ja mittlerweile beseitigt sein sollte(dieses wird vorzugsweise von nv-kiddies als schlagender Beweis für die mangelnde Quali von ATI-Karten geführt).

Ist zwar keine Studie, aber es sind Indizien. Diese Erfahrungen sind aber im Real-Life gemacht und spiegeln nicht das Netzgeschehen wieder.

Wolfram
2006-12-11, 12:49:10
Seit jeher schwirrt in der Comunity immer noch das ATI&Treiber-Argument herum, das heute ja mittlerweile beseitigt sein sollte(dieses wird vorzugsweise von nv-kiddies als schlagender Beweis für die mangelnde Quali von ATI-Karten geführt).
Warum sollte das "Treiber-Argument" beseitigt sein? Die von tokugawa angesprochenen Phänomene und die offenbar schlechten Linux-Treiber sind mir persönlich egal, da ich weder Entwickler noch ernsthafter Linux-Nutzer bin.

Aber auf X1800- und X1900-Karten (und zT schon auf X800-Karten) habe nicht nur ich Performance-Anomalien (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298983) erleben dürfen, die schon wirklich ärgerlich waren (vor allem in FEAR, aber auch in Oblivion und CoD2). Der Cat 6.8 besserte die Situation für mich auf meiner X1800XT 256MB schlagartig, da wurde offenbar irgendetwas am Texturmanagement verändert. Wenn ich sehe, wie lange es bis zur (keineswegs restlosen) Problembeseitigung gedauert hat und andererseits lese, daß ATi ein deutlich kleineres Team zur Treiberentwicklung beschäftigt, dann kann ich das nicht als "nv-kiddie-Gebashe" abtun.

Gast
2006-12-11, 16:00:21
Seit jeher schwirrt in der Comunity immer noch das ATI&Treiber-Argument herum, das heute ja mittlerweile beseitigt sein sollte(dieses wird vorzugsweise von nv-kiddies als schlagender Beweis für die mangelnde Quali von ATI-Karten geführt).Du liegst falsch. Tokugawa weiß schon wovon er redet und ist bestimmt kein "nv-kiddie" nach dem was ich so bisher von ihm gelesen habe. Die Treiberqualität ist immer noch eine Schwäche bei ATI. Das merkst du vielleicht nicht, wenn du ausschließlich die großen, bekannten Spiele spielst, aber es ist so.

dllfreak2001
2006-12-11, 16:37:01
Ich hab auch nicht gesagt das tokugwa falsch liegt. Wenn er da programmiert und entwickelt kann es sein das die Lösung von ATI für ihn nicht den bestmöglichen Weg darstellt. Ich habe mich eher auf seine Aussage bezogen, worin er behauptete das die meisten fanboys nicht aus dem NV-Lager kommen. Außerdem hat er sich eher auf die Hardware der ATI bezogen und nicht auf den Treiber.

Übrigens kann ich diese Treiberprobleme nicht bestätigen (immerhin habe ich vier grundverschiedene ATI-Karten-Systeme griffbereit) und ich bin kein ea-dauerzocker oder sowas. Ich spiel auch die anderen kleineren Games und hatte bis jetzt keine Probleme. Außerdem habe ich auf einem System auch
Linux mit meiner 9800pro laufen firegl, compiz/glfx, ut2004 mit allen details
funzen prima. Der Treiber ist zwar spartanisch aber problemlos installierbar
und läuft auch sauber.
Und wenn ich so die Foren ansehe dann gibbet mit den Treibern für NV-Karten mindestens genauso viele Fehler.
Außerdem wenn ATI nen Treiberupdate nachschiebt (damit nen game läuft)dann wird daraus ein Strick gedreht. Aber wenn NV das machen muss dann wird der tolle Treibersupport gelobt. Ich hatte bis vor kurzem auch mehrere NV-Karten in Betrieb GF2Ultra und GF4MX und mit denen hatte ich wesentlich mehr probs als mit den Atis.

tokugawa
2006-12-11, 16:55:27
@tokugwa
Das es mehr NV-Fanboys gibt kann ich zwar nicht direkt beweisen aber man
kann es ableiten. Also es gibt direkt ne größere Menge an NV-User als
ATI-User. NV macht massiv mehr Werbung was zu einer stärkeren Fanboy -Bildung führen kann.


Argument 1: "NV macht massiv mehr Werbung". Beweis?

Meiner Ansicht nach hängt das stark davon ab in welchen Kreisen du rumhängst, sprich, welche Magazine du liest, usw. In meinem aktiven Medienkreis macht ATI deutlich mehr Werbung. Beispiel ich war Volunteer bei der Eurographics 2006, dem größten europäischen Wissenschaftskongreß zu Computergraphik. Dort hat ATI die Shirts für die Volunteers sowie alle Taschen für alle Besucher gesponsort (waren alle knallrot). Von NV kam lediglich der Regenschirm für jeden Besucher, sowie einige Sachpreise für den Graphics-meets-Games-Wettbewerb.

Weitere Beispiele: Entwicklermagazine. Ich hab schon öfters ganze "Magazine-in-Magazinen" gesehen wo ATI irgendwas anpreist, das hab ich von NV noch eher selten gesehen.

Ich würde daraus aber nie ableiten dass ATI mehr Werbung macht. Wie gesagt, das ist subjektiv abhängig davon welche Medien du konsumierst.


Aus eigener Erfahrung habe ich bis jetzt mehrheitlich NV-Fanboys gesehen, das heißt ("Eine GF5200 ist schneller als ne Radeon 9800pro").


Argument 2: "aus eigener Erfahrung".

Erfahrung ist subjektiv. Somit kannst du aus "eigener" Erfahrung keine allgemeingültigen Aussagen treffen.



Seit jeher schwirrt in der Comunity immer noch das ATI&Treiber-Argument herum, das heute ja mittlerweile beseitigt sein sollte(dieses wird vorzugsweise von nv-kiddies als schlagender Beweis für die mangelnde Quali von ATI-Karten geführt).


Das ATI-Treiber-Argument ist ein sehr reales, das in Entwicklerkreisen oft bestätigt wird.

Ich kann das aus eigener Erfahrung bestätigen.


Ist zwar keine Studie, aber es sind Indizien. Diese Erfahrungen sind aber im Real-Life gemacht und spiegeln nicht das Netzgeschehen wieder.

Es sind Indizien, und somit keine Beweise und dürfen auf keinen Fall zu jenen allgemeinen Pauschalaussagen abgeleitet werden, die du gepostet hast.

Ich hab auch nicht gesagt das tokugwa falsch liegt. Wenn er da programmiert und entwickelt kann es sein das die Lösung von ATI für ihn nicht den bestmöglichen Weg darstellt. Ich habe mich eher auf seine Aussage bezogen, worin er behauptete das die meisten fanboys nicht aus dem NV-Lager kommen. Außerdem hat er sich eher auf die Hardware der ATI bezogen und nicht auf den Treiber.


Hier liegst du falsch. Ich hab nicht gesagt, dass "die meisten fanboys nicht aus dem NV-Lager kommen".

Was ich sagte war: man kann nicht sagen, dass die meisten fanboys aus dem NV-Lager kommen.

Ich bitte, etwas genauer zu lesen! Mir ging es darum dass man einfach nicht objektiv ableiten kann, welches Fanboy-Lager größer ist (mal abgesehen davon dass es egal ist). Mir ging's auch darum dass es ein Trugschluß ist, von deinen Argumenten ("Erfahrung" bzw. "Beobachtung", sh. oben) zu dem Schluß zu kommen, dass NV-Fanboys in der Mehrheit wären.


Und wenn ich so die Foren ansehe dann gibbet mit den Treibern für NV-Karten mindestens genauso viele Fehler.


Deine Beobachtung aus Foren ist allerdings wieder das: eine subjektive Beobachtung.

Natürlich, NV-Treiber sind auch nicht perfekt, das habe ich auch bereits mehrfach geschrieben. Aber generell machen NV-Treiber weniger Schwierigkeiten. Klar, der 0815-Gamer wird davon gar nichts mitbekommen, aber bei den haarsträubenden Anomalien die ich erlebt hatte - da ich direkt damit zu tun hatte - wirkt sich das natürlich auch auf die generelle Benützung aus.

Wenn man weiß dass man auf einer Landmine sitzt, sitzt man halt ungemütlicher, während jemand, der gar nicht weiß dass er auf einer Landmine sitzt, glücklich ist, solange nichts passiert (die Landmine muß ja nicht explodieren). Gut, vielleicht eine extreme Metapher.


Außerdem wenn ATI nen Treiberupdate nachschiebt (damit nen game läuft)dann wird daraus ein Strick gedreht. Aber wenn NV das machen muss dann wird der tolle Treibersupport gelobt.


Du siehst das nicht ganz richtig: die Kritik war nicht daran, dass ATI Treiber-Updates nachschiebt, nein.

Die Kritik war daran dass Bugs, die in älteren Versionen des Catalyst bereits gefixt waren, in neueren teilweise wieder auftauchten. Eine Zeitlang hatte ATI scheinbar echt Probleme mit deren Treiber-Revisions-Management. Vielleicht haben die für einige Versionen einfach ausgebrancht, aber die Verbesserungen nicht in den Hauptbranch zurückgemergt, keine Ahnung.

dllfreak2001
2006-12-11, 22:41:54
Meine These:

Also erstmal ist der Vergleich von Werbung für die
Technischer Branche mit der Konsummentenwerbung nicht vergleichbar.
Ein NV-Fanboy wird sich wohl selten wegen ein Quadro von NF oder einer FireGL-Karte von ATI bilden, da können sie soviel Werbung machen wie sie wollen. Aber NV-Werbung ist in fast jedem Spiel ohne Ende besonders in den Spielereihen von EA, die ja bekanntlich eher die jüngere Spielersektion anspricht. Dazu ist EA im Massenmarkt vertretten wie auch die meisten NV-gepushten Spieleschmieden die nen fettes NV-Logo im Spiel zeigen.
Diese Zocker sind die Quelle für solche FanBoys. Und da NV derzeit im Bereich der Spieleszene nen wesentlich größeren Marktenteil hat gibt es auch wesentlich mehr Ressourcen für NV-Fanboys als ATI-Fanboys.
Es ist eine These von mir die sich mit meinen persönlichen Beobachtungen decken.

Wenn du als Entwickler Probleme mit den ATI-Treibern hast, dann interessiert das den Konsumenten nicht die Bohne. Du hast die Lösung zu finden egal ob es dir passt oder nicht. Wenn nicht, verlierst du Geld.
Deshalb spiegeln deine Probleme nicht die Probleme des Users wieder und
deshalb ist es falsch wenn ein User Treiberprobleme als Argument gegen ATI
nennt. Wie bereits besprochen sind Fanboys merheitlich User.
Für den Heimbereich:
Ich kenne nur wenige Leute die Probleme mit ihren ATI-Treibern hatten
und wenn wurde das relativ schnell gefixt oder es lag an dem User selbst.

Irgendwie habe ich das Gefühl du entwickelst in richtung CAD, oder?

tokugawa
2006-12-12, 01:05:57
Meine These:

Also erstmal ist der Vergleich von Werbung für die
Technischer Branche mit der Konsummentenwerbung nicht vergleichbar.
Ein NV-Fanboy wird sich wohl selten wegen ein Quadro von NF oder einer FireGL-Karte von ATI bilden,


Die Entwicklermagazine zu denen ich Zugriff habe bewerben GeForce und Radeon, und nicht FireGL und Quadro.

Man muß sich von der Idee lösen dass nur Quadro/FireGL von Profis verwenden werden. In der Spielebranche ist es genau anders, hier verwenden wir lieber Consumer-Hardware, da dies die Zielhardware ist.


da können sie soviel Werbung machen wie sie wollen. Aber NV-Werbung ist in fast jedem Spiel ohne Ende besonders in den Spielereihen von EA, die ja bekanntlich eher die jüngere Spielersektion anspricht. Dazu ist EA im Massenmarkt vertretten wie auch die meisten NV-gepushten Spieleschmieden die nen fettes NV-Logo im Spiel zeigen.


Das mag Werbung sein, aber es ist auch Sponsoring. Die Schmieden die ein TWIMTBP-Logo drin haben, haben auch den NV-Entwicklersupport genossen.

Man könnte eigentlich genauso gut darauf schließen, dass der ATI-Entwicklersupport schlechter ist, und deswegen mehr Hersteller auf NV-Support setzen (und dafür als Gegenleistung das NV-Logo in die Spiele tun müssen). Ist genauso ein valides Argument.


Diese Zocker sind die Quelle für solche FanBoys. Und da NV derzeit im Bereich der Spieleszene nen wesentlich größeren Marktenteil hat gibt es auch wesentlich mehr Ressourcen für NV-Fanboys als ATI-Fanboys.
Es ist eine These von mir die sich mit meinen persönlichen Beobachtungen decken.


"wesentlich größerer Marktanteil" - Zahlen bitte. Soweit ich mich erinnern kann nach den letzten Zahlen von Mercury-Research hat zwar NVIDIA mittlerweile wieder den größeren Marktanteil bei Retail-Karten, aber ATI ist nicht sehr weit hinten. "wesenlich größer" schaut anders aus.


Wenn du als Entwickler Probleme mit den ATI-Treibern hast, dann interessiert das den Konsumenten nicht die Bohne. Du hast die Lösung zu finden egal ob es dir passt oder nicht. Wenn nicht, verlierst du Geld.


Du verstehst es nicht. Wenn die Treiber buggy sind, liegt es an ATI, sie zu fixen. Natürlich werden Entwickler "Workarounds" für verbuggte Treiber finden (soweit es geht).

Aber gleichzeitig verliert ATI in der Entwicklergemeinde das Vertrauen, und die Entwickler wenden sich eher dem NV-Entwicklersupport zu, und daraus resultiert wiederum, dass sich das NV-Logo in vielen Spielen wiederfindet (als Gegenleistung zum exzellenten NV-Entwicklersupport).

Den Konsumenten interessiert es nicht die Bohne, weil er nicht davon weiß.

Der Vergleich mit der Landmine ist insofern passend: ich bin ja auch Konsument privat. Ich weiß von den Schwächen der Treiber. Somit hab ich auch als Privatkonsument aufgrund meines Wissens als Entwickler das mulmige Gefühl, nicht-robuste Treiber zu verwenden. Ein Konsument der das nicht weiß, weiß das ganz einfach nicht. Der sitzt dann auf einer Landmine genauso gemütlich.


Deshalb spiegeln deine Probleme nicht die Probleme des Users wieder und
deshalb ist es falsch wenn ein User Treiberprobleme als Argument gegen ATI
nennt.


Nicht richtig. Denn diese Treiberprobleme können sehr leicht Probleme für Konsumenten werden. Nur wenn der Konsument eben nichts davon weiß, und diese auch deswegen kaum bemerkt, dann ist der Konsument glücklich.

Nur weil jemand auf einer Landmine schlafen kann, WEIL er nicht weiß dass er auf einer Landmine schläft, heißt das nicht dass die Landmine harmlos ist. Verstehst du den Vergleich?



Wie bereits besprochen sind Fanboys merheitlich User.
Für den Heimbereich:
Ich kenne nur wenige Leute die Probleme mit ihren ATI-Treibern hatten
und wenn wurde das relativ schnell gefixt oder es lag an dem User selbst.


Ich bin auch User. Und auch als User sind mir Treiberinstabilitäten schon aufgefallen. Als Entwickler allerdings bin ich eben tiefer in die Materie eingestiegen und hab das Problem eher analysieren können.

Ich kenn viele Leute die mit ATI-Treibern Probleme hatten, und auch viele die mit NV-Treibern Probleme hatten. Insgesamt sind die Leute mit ATI-Problemen in der Mehrheit. Das ist allerdings nur eine subjektive Beobachtung meinerseits, und ich habe nicht daraus Schlüsse gezogen wie du.

Aber als Entwickler bin ich diesen Problemen näher auf die Spur gekommen. Als Entwickler weiß ich objektiv, wo was nicht stimmt (meistens zumindest). Mit anderen Worten: ich habe als Entwickler die Quellen der Instabilitäten die ich als User erleben konnte, aufgespürt.

Da ich als Entwickler die ATI-Treiber als enorm unrobust erleben durfte, kann ich mir nicht vorstellen dass ein User sowas nicht mitbekommen würde.


Irgendwie habe ich das Gefühl du entwickelst in richtung CAD, oder?

Nein, ich arbeite als kommerzieller Spieleentwickler (allerdings derzeit nicht PC) und bin außerdem im Rahmen meiner Diplomarbeit in der Echtzeitgrafikforschung (ebenfalls in Richtung Game Technologies) wissenschaftlich tätig, ein Bereich der ebenfalls eher Radeons/GeForces verwendet als Quadro/FireGL (welche eher nur Content-Creators verwenden).



EDIT1:
Ach ja, und um das nochmals rauszustreichen: Auch NV-Treiber machen Probleme. Und nicht jedes Treiberproblem muß sich konkret bei jedem User äußern, sondern oft nur in bestimmter Hardware/Software-Kombination. Insofern sind "echte" Werte rein von "User-Erlebnissen" sehr schwer zu interpretieren.

EDIT2:
Ah ja, und noch eine kleine Anekdote: Bei der Eurographics 2006 (größte europäische Konferenz für Computergraphik, und weltweit direkt hinter der SIGGRAPH) hatte die ATI-Researcherin Natalya Tatarchuk einen Vortrag über die Technologien des ATI "Toyshop" Demos. Dieses Demo hat sie auf ihrem Laptop vorgezeigt in Echtzeit. Da war aber ein Artefakt zu sehen (die unterste Pixel-Zeile zeigte Garbage). Auf die Publikumsfrage, was das sei, hat sogar die ATI-Researcherin gemeint, dass das ein Treiberbug sein dürfte.

Lustigerweise ging dann ein zustimmendes Raunen durch's Publikum.

EDIT3:
Vielleicht interessiert es einige Leute, dass der NV-Entwicklersupport so gut ist, dass einige Driver-Engineers bei NVIDIA sogar auf Anfragen von (wichtigen) registrierten Entwicklern extra eigene Driver-Builds bauen, die diverse spezifische Probleme lösen.

dllfreak2001
2006-12-12, 17:15:00
Du redest über deine Entwicklerprobs und das ist ebenfalls eine subjektive
Bewertung, was aber zum Thema des Fanboys nicht passt. Wieso sollte ATI erhöhten Support für Spielefirmen erklären wenn dort NV Premiumlizenzen hat.
Wobei ich schon viele Leute mit NV-Karte gesehen habe bei denen sogar Spiele mit dem NV-Logo garnicht starteten während ich es von vorne weg ohne Probs gezockt habe.
Wie gesagt, wenn ATi bei dir mehr Werbung macht interessiert das den Konsumenten nicht. Der sieht immer nur die NV-Werbung in den Spielezeitschriften und in den Games und darauf kommt es an!
In letzter Zeit sind die Marktanteile im Retailmarkt sogar massiv in richtung NV gegangen(wegen der AMD-Übernahme).

Ich habe nicht das Gefühl mit ner Mine unterm hintern zu arbeiten. Zumindest ist diese noch nie gezündet(irgendwie komisch oder). Und darauf kommt es an. Dabei habe ich oft schon die Hardware uns Software konfig gewechselt. Auch Linux läuft mit meinen ATI-Karten Problemlos und das auch wenn ich nen Game zocke (Ut2004 zB.) oder mit xgl rumprobiere. Dabei bin ich sehr pingelig wenn was mit der Grafik nicht stimmt.

Zu EDIT1: Ich habe genau das umgekehrte Bild mitbekommen. Meine (und die meiner Kumpells) ATIs laufen schon seit Jahren problemlos (davor hatte ich auch NV (GF2Ultra und GF4MX)) und muss sagen so ein stabiles System hatte ich schon lange nicht mehr.

Zu EDIT2: Du bist aber ein grausamer Entwickler wenn du so einen Fehler
ausbreitest. Es kann auch am Mobotreiber gelegen haben (besonders mit Via-Chipsätzen sind aktuelle mobotreiber wichtig). Auch windows hatte Probs mit seinen OS bei diversen Vorführungen, trotzdem ist es immer noch das beliebteste OS.

Zu Edit3: wichtige registrierte User sind bestimmt Spielentwickler die auch mit
dem NV-Logo im Game promoten. Die bekommen teilweise extra treiber damit ihre Spiele korrekt laufen. So mussten viele NV-User beim release für bf2 nen extra mitgelieferten treiber von der CD installieren weil sonst das Spiel auf vielen Systemen nicht gelaufen wäre. Dagegen lief BF2 bei mir problemlos.

Für was entwickelst du denn, wenn nicht fürn PC?
Denn außer noch fürn Mac liefert ATI natürlich keinen gehobenen Treibersupport außerhalb des PCs.

tokugawa
2006-12-12, 20:00:26
Du redest über deine Entwicklerprobs und das ist ebenfalls eine subjektive
Bewertung, was aber zum Thema des Fanboys nicht passt.


Ich sag ja auch deutlich dass auch ich bezüglich Werbung nur Beobachterinformation habe.

Aber im Gegensatz zu dir leite ich daraus keine allgemeingültigen Aussagen ab. Darum ging's mir: nicht dass du Beobachtungen sind falsch, möglicherweise sind nicht mal deine davon abgeleiteten Ansichten falsch, aber was eindeutig falsch ist ist die Schlußfolgerung an sich. Bloß weil A wahr ist und B auch wahr ist, muß die Schlußfolgerung A -> B noch keine korrekte Schlußfolgerung sein.


Wieso sollte ATI erhöhten Support für Spielefirmen erklären wenn dort NV Premiumlizenzen hat.


Was für Lizenzen? Ich glaube du hast irgendwie falsche Vorstellungen...

Außerdem registrier dich mal als reiner Hobbyentwickler mal bei NV. Das geht nämlich auch, was ich ziemlich beeindruckend finde.



Wobei ich schon viele Leute mit NV-Karte gesehen habe bei denen sogar Spiele mit dem NV-Logo garnicht starteten während ich es von vorne weg ohne Probs gezockt habe.


Jep, das umgekehrte gilt auch. Wie gesagt: aus diesen Beobachtungen (weder aus deinen noch meinen) lässt sich eine Schlußfolgerung tätigen, die den Gesetzen der Logik entspricht.



Wie gesagt, wenn ATi bei dir mehr Werbung macht interessiert das den Konsumenten nicht.


Ich bin auch Konsument.


Der sieht immer nur die NV-Werbung in den Spielezeitschriften und in den Games und darauf kommt es an!


Bei uns in der Firma liegen auch "Consumer-Spielezeitschriften" rum am Klo. Und zwar sämtliche aus dem deutschsprachigen Raum sowie einige internationalere.


In letzter Zeit sind die Marktanteile im Retailmarkt sogar massiv in richtung NV gegangen(wegen der AMD-Übernahme).


Massiv heißt? Von welchen Prozentzahlen reden wir? Die Situation ist noch lange nicht so wie bei AMD zu Intel, rein prozentual sind ATI/AMD und NVIDIA noch in derselben Größenordnung.


Ich habe nicht das Gefühl mit ner Mine unterm hintern zu arbeiten.


Wie gesagt, Unwissenheit bewirkt halt Gemütlichkeit.


Zumindest ist diese noch nie gezündet(irgendwie komisch oder).


Nein. Hab ich doch auch schon gesagt, dass sie nicht zünden muss. Du bist halt das klassische Beispiel das ich bereits erwähnt hatte.


Und darauf kommt es an. Dabei habe ich oft schon die Hardware uns Software konfig gewechselt. Auch Linux läuft mit meinen ATI-Karten Problemlos und das auch wenn ich nen Game zocke (Ut2004 zB.) oder mit xgl rumprobiere. Dabei bin ich sehr pingelig wenn was mit der Grafik nicht stimmt.


OpenGL und ATI ist ja noch eine viel schlimmere Geschichte... zumindest wenn man ein modernes OpenGL-Featureset (FBOs etwa) vorraussetzen will. Obwohl auch NVIDIA bei FBOs Mist gebaut hat in den 70er-Treibern.



Zu EDIT1: Ich habe genau das umgekehrte Bild mitbekommen. Meine (und die meiner Kumpells) ATIs laufen schon seit Jahren problemlos (davor hatte ich auch NV (GF2Ultra und GF4MX)) und muss sagen so ein stabiles System hatte ich schon lange nicht mehr.


Schön für dich. Dass die ATI-Treiber rational gesehen trotzdem weniger robust sind, ist leider trotzdem Faktum. Das muß sich nicht unbedingt in etwas äußern was du bemerkst, aber ist dennoch trotzdem da. Von den Busy-Waiting-Problem in den Linux-Treibern will ich gar nicht reden (interessiert mich auch nicht da mich Linux am Desktop nicht interessiert).


Zu EDIT2: Du bist aber ein grausamer Entwickler wenn du so einen Fehler
ausbreitest. Es kann auch am Mobotreiber gelegen haben (besonders mit Via-Chipsätzen sind aktuelle mobotreiber wichtig). Auch windows hatte Probs mit seinen OS bei diversen Vorführungen, trotzdem ist es immer noch das beliebteste OS.


Ausbreitest? Wie breite ich den Fehler aus? Ich sag nur die Wahrheit.

Es kann nicht am Mobotreiber gelegen haben wenn der Crash direkt in atiogl.dll aufgetreten ist und der Debugger in dieser DLL breakt (unter OpenGL). Oder wenn der Rechner rebootet direkt beim DrawPrimitive()-Call (unter Direct3D).


Zu Edit3: wichtige registrierte User sind bestimmt Spielentwickler die auch mit
dem NV-Logo im Game promoten. Die bekommen teilweise extra treiber damit ihre Spiele korrekt laufen. So mussten viele NV-User beim release für bf2 nen extra mitgelieferten treiber von der CD installieren weil sonst das Spiel auf vielen Systemen nicht gelaufen wäre. Dagegen lief BF2 bei mir problemlos.


Das hat nichts mit EDIT3 zu tun.


Für was entwickelst du denn, wenn nicht fürn PC?


Derzeit Nintendo DS.

Für meine DA allerdings schon am PC.


Denn außer noch fürn Mac liefert ATI natürlich keinen gehobenen Treibersupport außerhalb des PCs.

Um mich nicht falsch zu verstehen: die ATI-Treiber haben sich seit Radeon 8500-Zeiten enorm gebessert, und keins der Fehler wäre unbehebbar.

Trotzdem hat ATI diesen schlechten Ruf bei Treibern nicht umsonst bei jenen Leuten, die eng damit zusammenarbeiten (Entwicklern). Und das hat sehr wohl Relevanz für Konsumenten, denn die Fehler treten ja nicht nur für Entwickler auf (nur Entwickler haben halt das Wissen, die Fehler zu umgehen, oder zumindest zu lokalisieren und an ATI zu melden).

Soviel mußt du zumindest auch zugeben. Ich hab auch bereits mehrfach gesagt, dass trotz der objektiv gesehen schlechteren ATI-Treiber die Fehler nicht unbedingt überall auftreten müssen. Du und deine Kumpels hatten halt Glück, ich wünsch euch weiterhin dieses Glück.

Außerdem hab ich mit keinem Satz erwähnt dass NV-Treiber unfehlbar wären. Ich meinte nur meine und die Erfahrung vieler Entwickler mit NV- und ATI-Treibern, die es einfach wissen müssen (wenn's sogar die Koriphäre von ATI-Research zugibt :) - ATI muß es schließlich selbst wissen).

Dass du dich so heftig wehrst gegen diese - meiner Ansicht nach vernünftigen, weil nicht einseitigen (ich sag ja nicht dass NVIDIA die Sonne aus dem A**** scheint) - Argumente die ich vorbringe, find ich relativ voreingenommen von dir.


Dass ATI-Treiber einen schlechteren Ruf haben als NVIDIA-Treiber kommt eben nicht von ungefähr. Dass dies aber sich nicht immer zeigen muß, ist auch ein Faktum das ich bereits erwähnt habe. Das heißt aber nicht dass die Probleme nicht da wären. Von daher kommt die Kritik an ATI-Treibern eben nicht von Fanboys, sondern eben eher von Experten (wenn's die Fanboys nachplappern können die Experten nichts dafür und macht das ganze auch nicht weniger wahr).

sloth9
2006-12-12, 20:52:56
[...]

Zu EDIT2: Du bist aber ein grausamer Entwickler wenn du so einen Fehler
ausbreitest. Es kann auch am Mobotreiber gelegen haben (besonders mit Via-Chipsätzen sind aktuelle mobotreiber wichtig). Auch windows hatte Probs mit seinen OS bei diversen Vorführungen, trotzdem ist es immer noch das beliebteste OS.

[...]



Falsch. Gerade Via-Chipsätze laufen ganz herrvorragend ohne Treiber mit XP SP2, RAID und SATA natürlich, wie überall, ausgenommen.
Man braucht gar keinen Treiber, im Gegensatz zu nvidia. StarforceNightmare-User werden's wissen.

dllfreak2001
2006-12-13, 08:52:41
Deine Beobachtung bezüglich der Werbung sind aber kein Gegenbeleg für meine Behauptungen. Die Fanboybasis wird sich wohl kaum bei den Entwicklern befinden, oder etwa doch!?
Ich als reiner User, sehe auf jedenfall hauptsächlich NV-Werbung und das könnte man auch definitiv ausprobieren, wenn nicht sogar statistisch belegen.
Außerdem ist NV bekannt für seine fragwürdigen Werbemethoden.

Wenn NV Allianzen schließt dann hat das auch was mit Geld zutun
beide Unternehmen profitieren voneinander. Da besteht letztendlich auch irgendwo ein Vertrag.

Meine Beobachtung bezüglich der stabilität von Systemen sollte nur ein Gegenbeispiel zu deinen darstellen. Eine Aussage dadurch über die Quali
der Treiber&Co beim Konsumenten abzuleiten geht nicht.

Eine Mine die nie zündet ist aber eine schlechte Mine.
Aber da frag ich mich wieso die NV-Treiber keine Mine darstellen?
Schließlich erzeugen auch genügend Probs.
Wenn nicht genauso eine dann eine etwas schlechtere Mine.

Das erste dokument zu google für fbo ist natürlich von nvidia gesponsort.
Aber das ATI nicht so der Renner für OpenGL ist weiß ich auch.
Mir geht es auch im Bezug auf den Mainstreammarkt um die beinflussbaren
Käuferschichten mit dem "boah geil"-Effekt (die ja letztendlich auch die meisten Fanboys hervorbringt).

Wie kann es Faktum sein das der Treiber von ATI weniger robust ist wenn du dich auch nur auf persönliche Beobachtungen stützt?
Ein anderer Entwickler kommt vielleicht sehr viel besser als du mit den ATI-Treibern klar.

Bei der Demo die da vorgeführt wurde hast du nur erwähnt das es Grafikfehler gab und nicht das der ganze Kramm direkt abgeschmirrt ist und dann debugt wurde. Ich persönlich hatte schon mal Grafikfehler weil der Mobotreiber nicht aktuell war.

Na, nem Hobbyentwickler wird NV wohl kaum nen Extra-Treiber entwickeln
im übrigen ist das auch fragwürdig da man für das Programm nen Extratreiber installieren müsste. Für die meisten User wirkt das unzumutbar, da durch den
geänderten Treiber auch wieder neue inkompatibilitäten mit anderen Progs erzeugt werden könnten.

Was ist ne DA?

Fanboys beziehen sich auf dieses Argument aber nicht aus deinen genannten Gründen. Außerdem tretten deine beschriebenen Probleme bei einem reinen User wohl wesentlich seltener zu Tage als bei einem Entwickler.
Auch wenn sie heute noch nicht so gut sind wie die von NV aber so instabil
das praktisch garnichts läuft sind sie nicht. Ein Fanboy denkt aber so.
Wenn du als Entwickler Probs mit den ATis hast dann sind das für den User nur detailfragen. Außerdem muss man sich auch der Hardware anpassen.
An NV haben sich die Entwickler auch irgendwann mal angepasst.

Gast
2006-12-13, 10:50:00
Was ist ne DA?
.
Diplomarbeit

gruß mapel110

Gast
2006-12-13, 17:50:11
Auch wenn sie heute noch nicht so gut sind wie die von NV aber so instabil
das praktisch garnichts läuft sind sie nichtHat das denn irgendwer behauptet?

tokugawa
2006-12-13, 23:28:08
Deine Beobachtung bezüglich der Werbung sind aber kein Gegenbeleg für meine Behauptungen. Die Fanboybasis wird sich wohl kaum bei den Entwicklern befinden, oder etwa doch!?


Wie oft noch? Ich bin auch Konsument, wie jeder Entwickler!


Ich als reiner User, sehe auf jedenfall hauptsächlich NV-Werbung und das könnte man auch definitiv ausprobieren, wenn nicht sogar statistisch belegen.
Außerdem ist NV bekannt für seine fragwürdigen Werbemethoden.


Die Aussage allein find ich ist schon fanboyverdächtig.


Wenn NV Allianzen schließt dann hat das auch was mit Geld zutun
beide Unternehmen profitieren voneinander. Da besteht letztendlich auch irgendwo ein Vertrag.


Muß nicht unbedingt sein. Der Entwicklersupport ist auch für nicht-vertraglich verbundene User exzellent.


Meine Beobachtung bezüglich der stabilität von Systemen sollte nur ein Gegenbeispiel zu deinen darstellen. Eine Aussage dadurch über die Quali
der Treiber&Co beim Konsumenten abzuleiten geht nicht.


Eigentlich war's umgekehrt: meine Beobachtung war ein Gegenbeispiel zu deinem und sollte nur zeigen dass deine Beobachtung - genauso wie meine - nicht pauschalierbar sind.

Nur analytisch - sprich wenn man Fehler analysiert und Treiberschwächen faktisch und rational auf den Grund geht - kann man Aussagen treffen. Und hier haben Entwickler gegenüber "Konsumenten" einen Vorteil.


Eine Mine die nie zündet ist aber eine schlechte Mine.
Aber da frag ich mich wieso die NV-Treiber keine Mine darstellen?
Schließlich erzeugen auch genügend Probs.
Wenn nicht genauso eine dann eine etwas schlechtere Mine.


Irgendwie verdrehst du da was. Es geht einfach darum dass Treiberprobleme nicht bei jedem auftreten müssen, dies aber noch kein Indiz ist, dass die Treiber allgemein großartig sind.


Das erste dokument zu google für fbo ist natürlich von nvidia gesponsort.


Link? Die ersten Dokumente in Google zu "FBO" haben bei mir jedenfalls nichts mit "Framebuffer Objects" zu tun.

Und der erste Link zu "Framebuffer Objects" ist kein Sponsorlink, sondern Entwicklerdokumentation auf der NVIDIA-Entwicklerseite.


Aber das ATI nicht so der Renner für OpenGL ist weiß ich auch.
Mir geht es auch im Bezug auf den Mainstreammarkt um die beinflussbaren
Käuferschichten mit dem "boah geil"-Effekt (die ja letztendlich auch die meisten Fanboys hervorbringt).


Und? Sind Treiber plötzlich stabiler wenn sie von Konsumenten benutzt werden, Einzelfälle ausgenommen?


Wie kann es Faktum sein das der Treiber von ATI weniger robust ist wenn du dich auch nur auf persönliche Beobachtungen stützt?


OK, hier nochmal zum Mitschreiben:
- Der Kommentar bezüglich Werbung ist auch bei mir nur Beobachtung. Hier steht deine Aussage gegen meine.
- Der Kommentar zu den Treibern ist keine Beobachtung, sondern Analyse.


Ein anderer Entwickler kommt vielleicht sehr viel besser als du mit den ATI-Treibern klar.


Klar wird's einige geben die mit ATI auch keine Probleme haben.

Aber dass ATI einen schlechteren Ruf hat was Treiber angeht (und dies auch durch einzelne Fakten belegbar ist), ist ebenfalls Tatsache.


Na, nem Hobbyentwickler wird NV wohl kaum nen Extra-Treiber entwickeln
im übrigen ist das auch fragwürdig da man für das Programm nen Extratreiber installieren müsste. Für die meisten User wirkt das unzumutbar, da durch den
geänderten Treiber auch wieder neue inkompatibilitäten mit anderen Progs erzeugt werden könnten.


Natürlich, aber in diesem Fall geht's um wirkliche Spezialdinge.


Was ist ne DA?


Diplomarbeit.


Fanboys beziehen sich auf dieses Argument aber nicht aus deinen genannten Gründen. Außerdem tretten deine beschriebenen Probleme bei einem reinen User wohl wesentlich seltener zu Tage als bei einem Entwickler.


Das heißt nicht dass sie überhaupt nicht zu Tage treten.


Auch wenn sie heute noch nicht so gut sind wie die von NV aber so instabil
das praktisch garnichts läuft sind sie nicht.


Genau das hab ich doch geschrieben.


Ein Fanboy denkt aber so.


Mach mal einen Schritt zurück und betreibe Selbstreflektion:
Mal ehrlich, deine Debattiererei darüber dass ATI-Treiber "überhaupt nicht schlechter" sind, und dein Festhalten daran sind doch auch sehr einseitig.

Ich glaube dass meine Argumente unvoreingenommen sind und zutreffen. Vor allem da ich auch nicht NVIDIA in den Himmel lobe (wie du das scheinbar herausliest - auch ein Indiz für eine relativ einseitige Wahrnehmung).

Irgendwie könnte man meinen (wenn man so deine Aussagen bezüglich Fanboys liest) dass es kaum "ATI-Fanboys" gäbe. Die Realität sieht anders aus.

Mal abgesehen davon ist es doch vollkommen egal welches Lager "mehr Fanboys" hat (mal abgesehen davon dass du nicht belegen kannst, welches "Lager" mehr hat)! Fanboys sind in jedem Fall irritierend und unnötig!

Außerdem find ich das Lagerdenken prinzipiell sch*sse, ehrlich!

Die Forscher und Entwickler bei ATI und NVIDIA haben jedenfalls lang nicht so einen Stock im A*** wie die Fanboys. Die diskutieren produktiv miteinander und nicht gegeneinander (gegenseitiges Bashing sieht man auf Konferenzen wo beide Firmen durch Vorträge vertreten sind jedenfalls nie).



Wenn du als Entwickler Probs mit den ATis hast dann sind das für den User nur detailfragen.


Wie gesagt, das sind Dinge die sehr leicht auftreten können.

Vergleich's mit den Sicherheitslücken bei Windows: viele sind ebenfalls nur "Detailfragen", und treten nicht bei jedem Nutzer in Erscheinung. Heißt das nun dass Windows das sicherste System ist? Mitnichten. Es heißt nur dass manche User einfach Glück haben.



Außerdem muss man sich auch der Hardware anpassen.
An NV haben sich die Entwickler auch irgendwann mal angepasst.

Was wiederum die Schleife zum Entwicklersupport schließt. Ein guter GPU-Hersteller hat auch guten Entwicklersupport, das gehört einfach zusammen. Das hat auch nichts mit "Sponsorship" zu tun wie du das glaubst.

dllfreak2001
2006-12-20, 10:01:05
Schreibst du jetzt regelmässig doppelte Antworten?

Eigentlich dürfte es relativ leicht zu ersehen sein das ein reiner Konsument
weniger ATi als NV-Werbung sieht. Das ist auch eine Tatsache da kannst du machen was du willst. Und da trifft das die Masse.

Gast
2006-12-22, 11:29:37
Die Aussage allein find ich ist schon fanboyverdächtig.


Die Aussage fanboyverdächtig zu finden, ist auch fanboyverdächtig ;)

tokugawa
2006-12-22, 14:35:10
Schreibst du jetzt regelmässig doppelte Antworten?


Solange du sie nicht begreifst, ist Wiederholung vonnöten. Scheinbar überliest du die Hälfte einfach so, denn deine Antworten darauf weisen nicht wirklich darauf hin, dass meine geschriebenen Worte überhaupt den Weg in deine graue Masse gefunden haben.


Eigentlich dürfte es relativ leicht zu ersehen sein das ein reiner Konsument
weniger ATi als NV-Werbung sieht.


Auch hier wiederhole ich mich: das kommt nur dir so vor und das kannst du nicht beweisen.

Das mag zutreffen, das mag nicht zutreffen.

Aber von deinen persönlichen Erfahrung auf die Allgemeinheit zu schließen ist ein falscher Schluß. Diese Art von Trugschlußfolgerungen ist mir persönlich zutiefst zuwider, da so ziemlich alles Schlechte der Welt genau auf ähnlicher Pseudo-Logik basiert. Gutes Beispiel aus der Nazizeit: "Juden sind generell schlechte Menschen, denn jeder Jude den ich kenne ist ein schlechter Mensch" - Trugschlußfolgerung von persönlicher Erfahrung auf die Allgemeinheit par excellance. Rassismus und Faschismus basiert generell auf dieser Pseudologik.

Also bitte, gewöhn dir das ab bevor du eine ähnliche Logik auf viel schlimmere Thematiken anwendest.


Das ist auch eine Tatsache da kannst du machen was du willst.


Du bist noch immer den Beweis schuldig.


Und da trifft das die Masse.

Ich gehör auch zur Masse. Die Mengen "Entwickler" und "Konsument" sind ja nicht disjunkt.


Die Aussage fanboyverdächtig zu finden, ist auch fanboyverdächtig ;)

Da hast du recht. Aber ich hab durch andere Dinge bewiesen dass ich kein Fanboy bin.

Gast
2006-12-22, 14:45:25
Aber ich hab durch andere Dinge bewiesen dass ich kein Fanboy bin.
Nein ... :rolleyes:

Nur weil Du zugegeben sehr viel von der Thematik verstehst, befreit Dich das nicht automatisch vom "Fanboyismus". Da der Begriff "Fanboy" nicht eindeutig definitert ist, bin ich mal so frei: Einige Deiner Argumente klingen in meinen Ohren sehr nach einer akademischen Ausgabe eines Fanboys. So eine Art Dipl.-Fanboy oder Dipl.-Informatiker (FB) ... ;)

Bitte nicht so ernstnehmen und auch nicht in die Tastatur beißen. Ich schätze Deine Beiträge in diesem Forum sehr, allerdings wirken Sie gelegentlich schon "etwas" nVidia-biased. ;)

tokugawa
2006-12-22, 19:43:20
Nein ... :rolleyes:

Nur weil Du zugegeben sehr viel von der Thematik verstehst, befreit Dich das nicht automatisch vom "Fanboyismus". Da der Begriff "Fanboy" nicht eindeutig definitert ist, bin ich mal so frei: Einige Deiner Argumente klingen in meinen Ohren sehr nach einer akademischen Ausgabe eines Fanboys. So eine Art Dipl.-Fanboy oder Dipl.-Informatiker (FB) ... ;)

Bitte nicht so ernstnehmen und auch nicht in die Tastatur beißen. Ich schätze Deine Beiträge in diesem Forum sehr, allerdings wirken Sie gelegentlich schon "etwas" nVidia-biased. ;)

Das bestreit ich ja auch nicht, dass ich von NVIDIA eine höhere Meinung hab als von ATI.

Aber wie gesagt, mir ist wichtig herauszustreichen dass dies alles schon auf sehr bewußten sachlichen Dingen basiert und nicht nur weil mir irgendeine Farbe besser gefällt oder sonstirgendwas unsachliches.

Außerdem ist es ja nicht so dass ich ATI "hasse" oder so (was ja auch ein Zeichen eines Fanboys wäre - aus irgendeinem Grund die "Feinde" zu "hassen"). Hab ja den ATI-Research-Vortrag von der Natalya Tartachuk bei der Eurographics 2006 sehr nett gefunden (war da technische Saalaufsicht), und bin ja als Volunteer die ganze Eurographics-Woche mit rotem "Sponsored by ATI" Staff-Shirt in Wien rumgelaufen - teilweise sogar in die "After-Work"-Parties ;)