Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 8500 jetzt besser als GeForce4Ti?
Hi
kann man mit der Radeon 8500 neuere Games besser
spielen als mit der GF4Ti ? ( Shaderleistung)
Es gibt doch paar spiele die min Pixel Shader 1.4 voraussetzen.
Laufen solche Spiele auf der 8500 noch akzeptabel ?
StefanV
2007-09-13, 22:19:37
1. möglich aber eher unwahrscheinlich...
2. naja, gerade eben so...
Würd eher auf 'ne 9600 setzen, die gibts gebraucht für 10-20€.
auch besser als die 4600??
StefanV
2007-09-13, 22:46:33
'ne 9600??
Sofern sie ein 128bit SI hat, auf jeden Fall...
Ich dachte dabei an so einen Vergleich wie :
Geforce4 Ti Shader 1.3 VS Radeon8500 Shader 1.4
GeForce6 Shader 3 VS X800 Shader 2
Also ob die Karte mit den höheren Features daraus auch wirklich
Vorteile ziehen kann . ?
GanjaBob
2007-09-13, 23:05:42
leider lässt sich das nie so richtig pauschalisieren. und welche "neueren" games willst du damit spielen? ob du nun bei spiel X 20 frames mit der einen, oder 22 mit der anderen karte hast dürfte ja wohl egal sein?!...
Wechselbalg
2007-09-13, 23:39:03
Also Battlefield 2 war ja zumindest im Ursprung glaube ich eines der Spiele, das 1.4er Shader vorraussetzte, aber da gab es glaube ich auch eine Lösung, um es auf älteren Karten zum Laufen zu bekommen. Da ich aber zwar einen R200, aber kein Battlefield habe, kann ich nicht all zu viel dazu sagen.
Ansonsten bot Max Payne 2 mit der Radeon 8500 ein paar Effekte mehr und es sollte auch ganz gut laufen, wenn man nicht unbedingt Kantenglättung braucht. Ohne die Effekte läuft es aber auch auf der GF4. Ansonsten würde mir jetzt auf Anhieb gar nichts einfallen.
Spasstiger
2007-09-14, 01:29:28
Half-Life 2 hat einen Renderpfad, bei dem Pixelshader 1.4 verwendet wird, kommt bei den GeForce-FX-Karten und bei der Radeon 8500-9200 standardmäßig zum Einsatz.
Ja, aber auch einen mit 1.1 für ganz alte Dinger.
Spasstiger
2007-09-14, 01:50:25
Ja, aber auch einen mit 1.1 für ganz alte Dinger.
Ja, es gibt auch noch einen DX7-Renderpfad.
Aber hier war ja nach Vorteilen für die Radeon 8500 gefragt.
die 8500 ist durchweg stärker so sie keine kastrierte version ist.
sie kann außerdem fast ohne performanceverlust ansotrop filtern.
antialiasing geht noch gut spielbar 2x bis 1152x864,4x bis 1024x768 und 6x bis bestenfalls 800x600.
sie kann außerdem fast ohne performanceverlust ansotrop filtern.
Das ist aber nicht anisotrop, sondern eine Krankheit...
Exxtreme
2007-09-14, 08:39:43
Beide Karten sind aktuell gesehen ziemlich schlecht ausser man will nicht spielen. Und da würde ich eher zur Radeon greifen da die Signalqualität durchgehend gut sein sollte. Bei den Geforce-Dingern kann man böse Überraschungen erleben.
Beim Zocken ist es egal welche Karte da beide eh' viel zu langsam.
Spasstiger
2007-09-14, 08:54:23
Für einen Nostalgie-Spielerechner würde ich ganz klar die Geforce 4 Ti vorziehen. Bessere 3D-Leistung, bessere Bildqualität und bessere Kompatabilität.
_DrillSarge]I[
2007-09-14, 11:42:24
radeon 8500 (128Mb, keine 9000) > ti4200 wenn:
- bei radeon AA AUS
- AF bei beiden Karten an, wobei das 8500 AF schlechter ist (nur bi, sehr winkelabh.)
StefanV
2007-09-14, 16:02:13
Das ist aber nicht anisotrop, sondern eine Krankheit...
Du meinst wohl nicht trilinear, oder? ;)
Für einen Nostalgie-Spielerechner würde ich ganz klar die Geforce 4 Ti vorziehen. Bessere 3D-Leistung, bessere Bildqualität und bessere Kompatabilität.Genau. Ansonsten eine 8500 GT. Wobei selbst eine 8400 GS der Ti 4200 wahrscheinlich locker das Wasser reichen kann. Für viele LAN-Spiele (Quake 3, UT bis 2004, WC3) etc. reicht diese geringe Leistung.
Radeonator
2007-09-14, 16:21:12
Für einen Nostalgie-Spielerechner würde ich ganz klar die Geforce 4 Ti vorziehen. Bessere 3D-Leistung, bessere Bildqualität und bessere Kompatabilität.
Bessere 3D Leistung, ja, bessere Bildquali :confused: Das nicht dein Ernst, das 2D Signal der 4Ti ist Augenkrebs würdig und auch 3D eher matschig vs die 8500er. AF und schönere AA Modi sind vorhanden, doch was nutzt mir das, wenn das Grundsignal matschig ist?
The_Invisible
2007-09-14, 16:22:42
Bessere 3D Leistung, ja, bessere Bildquali :confused: Das nicht dein Ernst, das 2D Signal der 4Ti ist Augenkrebs würdig und auch 3D eher matschig vs die 8500er. AF und schönere AA Modi sind vorhanden, doch was nutzt mir das, wenn das Grundsignal matschig ist?
blödsinn, das gerücht galt nur den geforce 1/2 karten.
mfg
_DrillSarge]I[
2007-09-14, 16:23:57
Bessere 3D Leistung, ja, bessere Bildquali :confused: Das nicht dein Ernst, das 2D Signal der 4Ti ist Augenkrebs würdig und auch 3D eher matschig vs die 8500er. AF und schönere AA Modi sind vorhanden, doch was nutzt mir das, wenn das Grundsignal matschig ist?
ein chip macht noch lange kein vga-signal.
StefanV
2007-09-14, 16:38:07
blödsinn, das gerücht galt nur den geforce 1/2 karten.
Nee, so ganz unrecht hat er nicht, die 8500er waren durchaus besser.
Ganz ab davon, das es kein Gerücht ist sondern Fakt und das es auch noch Geforce 3 Karten betraf, 4er teilweise wohl auch noch...
Und der TV Out war bei der 8500 um Universen besser, die GF4er haben teilweise Matsch ausgegeben, das ganze war natürlich ohne externes Tool, das man erstmal kaufen musste, nicht brauchbar...
Ansonsten bot Max Payne 2 mit der Radeon 8500 ein paar Effekte mehr und es sollte auch ganz gut laufen, wenn man nicht unbedingt Kantenglättung braucht. Ohne die Effekte läuft es aber auch auf der GF4. Ansonsten würde mir jetzt auf Anhieb gar nichts einfallen.
BF2 und R8500: 1024x768. Mehr geht leider nicht. Hab die Karte noch im alten Rechner. ;)
_DrillSarge]I[
2007-09-14, 16:53:54
sicher. unter qualitativ vergleichbaren settings zieht die gf4 TI die 8500 ab
Ansonsten bot Max Payne 2 mit der Radeon 8500 ein paar Effekte mehr und es sollte auch ganz gut laufen, wenn man nicht unbedingt Kantenglättung braucht. Ohne die Effekte läuft es aber auch auf der GF4. Ansonsten würde mir jetzt auf Anhieb gar nichts einfallen.Auch wenn mit Max Payne 2 auf meiner GeForce 4 Ti extrem viel Spaß machte, hat es mir die Augen geöffnet dass es unklug sein kann, Highend-Hardware zu kaufen welche featuremäßig rückständig ist.
I[;5843421']sicher. unter qualitativ vergleichbaren settings zieht die gf4 TI die 8500 abMit AA und AF lassen sich hier keine qualitativ vergleichbaren Settings erzielen.
_DrillSarge]I[
2007-09-14, 17:36:45
Auch wenn mit Max Payne 2 auf meiner GeForce 4 Ti extrem viel Spaß machte, hat es mir die Augen geöffnet dass es unklug sein kann, Highend-Hardware zu kaufen welche featuremäßig rückständig ist.
Mit AA und AF lassen sich hier keine qualitativ vergleichbaren Settings erzielen.
naja alles off und hohe auflösung (mir ist schon klar, dass man das aa (ss vs. ms) und das AF (nur-bi, 45Grad Wh. vs. full-tri) nicht vergleichen kann, wenn man mal außerhalb des control-panels schaut.
Die meisten kauften sich allerdings keine GF4, um dann ohne Antialiasing zu zocken. Auf Kraft vergleichbare Settings zu erzeugen, die am Spieler vorbeigehen, kann auch nicht der Sinn sein.
Ich hatte mal kurzzeitig eine Radeon 9000 drin. Die mit Pixelshader 1.4 möglichen Effekte waren schon beeindruckend.
_DrillSarge]I[
2007-09-14, 18:03:54
Die meisten kauften sich allerdings keine GF4, um dann ohne Antialiasing zu zocken. Auf Kraft vergleichbare Settings zu erzeugen, die am Spieler vorbeigehen, kann auch nicht der Sinn sein.
Ich hatte mal kurzzeitig eine Radeon 9000 drin. Die mit Pixelshader 1.4 möglichen Effekte waren schon beeindruckend.
leider (fast??) nie genutzt. was ich beeindruckend fand: truform. leider irgendwie in der versenkung verschwunden. eins steht sicher fest die gf4ti hat mehr rohpower als der r200 und ist diesem vorzuiehen. die gf4 erschien ja auch später.
Die 8500 hat einen echten MPEG2-Decoder, sie war in diesem Punkt immer besser als die GF4*.
*Nur die GF4MX hatte etwas Vergleichbares bzw. war hier ebenbürtig.
Mit AA und AF lassen sich hier keine qualitativ vergleichbaren Settings erzielen.2x2 SSAA und trilineare Filterung sollte doch vergleichbar sein. Übrigens keine reine Theorie, so habe ich mit meiner GF3 ziemlich vieles gezockt.
Bei moderneren Spielen sind beide Karten mit 4x Supersampling überfordert. Ich habe auf der GF4 fast immer reines 2x Multisampling genutzt, später gelegentlich 4xS-AA. Vor allem habe ich meistens mit 8x AF gezockt. Mit trilinearem AF bei nur schwacher AF-Winkelabhängigkeit und ohne Unterfilterungs-Gefahr. Das waren Zeiten!
Naja, die Geschmäcker sind halt verschieden. Ich habe schon immer eher auf AF und (bis auf einige Ausnahmen im Strategiegenre) Auflösung gepfiffen und lieber SSAA genutzt. Manchmal auch auf Detailsettings, wenn diese mir nicht genügend Gegenwert brachten, um das Fehlen konsequenter Fehlerverminderungstechnologien auszugleichen.
Dazu mag man auch stehen, wie man will - 2x2 SSAA mit trilinearer Filterung schafft ein faires Spielfeld zwischen NV2X und R(V)2X0 - wenn es nicht eines dieser Spiele ist, die bei korrekter Mondphase während der Opferung einer Jungfrau auf einer einsamen Waldlichtung kompiliert wurden, so dass R(V)2X0 SGSSAA konnte. Auch Truform wollen wir nicht vergessen, im Gegensatz zu NVs HOS-Technologie wurde dies zumindest halbherzig unterstützt. Was nun die Eignung für modernere Spiele betrifft, hängt dies wohl daran, wie wichtig einem AF ist. Konnte man darauf verzichten dürfte R(V)2X0 meist die bessere Wahl gewesen sein, will man hochwertig gefilterte Texturen, ging in dieser Generation kein Weg an NV2X vorbei. Was natürlich bei den Spielen nix bringt, die mindestens PS1.4 verlangen...
StefanV
2007-09-14, 19:44:37
Die 8500 hat einen echten MPEG2-Decoder, sie war in diesem Punkt immer besser als die GF4*.
*Nur die GF4MX hatte etwas Vergleichbares bzw. war hier ebenbürtig.
Ja, richtig, wer damals 'Multimediafan' war, dem konnt bei nVidia nur schlecht werden, leider...
Die habene s leider nie wirklich fertig gebracht, die Philips SAA711x, die später sehr oft verwendet wurden oder die 'alternativen' Conexant Encoder einigermaßen brauchbar zu unterstützen...
Viel mehr als an/aus war mit den nV Treibern nicht möglich, warum auch immer die das nicht implementiert haben...
Die Hardwareunterstützung von Videobeschleunigung ist natürlich auch noch ein Punkt, an dem nVidia nicht besonders gut war, obwohl das damals schon verlangt wurd...
Von daher kann man nur sagen, das die R200 heutzutage um WELTEN besser ist denn die GF4 TI, einmal ist sie um einiges kühler (V3 Bratpfanne reicht, hab das BIld leider nicht mehr :( :(), die Multimediaunterstützung der AMD KArten war damals um Universen besser und auch ansonsten gibts heut nicht so wirklich viel, wofür man die GF4 TI verwenden könnt...
I[;5842498']
- AF bei beiden Karten an, wobei das 8500 AF schlechter ist (nur bi, sehr winkelabh.)
das radeon8500-AF ist schlichtweg unbrauchbar, es ist nicht nur stark winkelabhängig und nur bilinear sondern filmmert auch wie der teufel, dagegen ist G70-high-performance eine augenweide.
Und der TV Out war bei der 8500 um Universen besser, die GF4er haben teilweise Matsch ausgegeben, das ganze war natürlich ohne externes Tool, das man erstmal kaufen musste, nicht brauchbar...
mit conexant-chip, der auf den meisten GF4-versionen verbaut wurde war die TV-out-qualität der GF4 sehr gut.
StefanV
2007-09-14, 21:26:13
mit conexant-chip, der auf den meisten GF4-versionen verbaut wurde war die TV-out-qualität der GF4 sehr gut.
Nein, war er nicht (immer), auf meiner Prolink war die Qualität ziemlich bescheiden, Farben stimmten zwar, unscharf wars aber trotzdem.
Und ohne TV Tool hatte ich man gerad ~die hälfte des Schirmes ausgefüllt, rest war nicht benutztbar, mangels Einstellmöglichkeiten und scharf war was anderes...
mit conexant-chip, der auf den meisten GF4-versionen verbaut wurde war die TV-out-qualität der GF4 sehr gut.
der der 8500 war besser :D
Nee, so ganz unrecht hat er nicht, die 8500er waren durchaus besser.
Ganz ab davon, das es kein Gerücht ist sondern Fakt und das es auch noch Geforce 3 Karten betraf, 4er teilweise wohl auch noch...
Und der TV Out war bei der 8500 um Universen besser, die GF4er haben teilweise Matsch ausgegeben, das ganze war natürlich ohne externes Tool, das man erstmal kaufen musste, nicht brauchbar...
Das sind beides nur dumme Geruechte. Als Besitzer einer 8500 und GF4 weiß ich das. Ist übrigens ein Conexant 871 auf der GF4, die Philips Encoder waren in der Tat nicht so toll, aber das ist ja Sache des Kartenherstellers.
der der 8500 war besser :D
Nö, war er nicht. :D
das radeon8500-AF ist schlichtweg unbrauchbar, es ist nicht nur stark winkelabhängig und nur bilinear sondern filmmert auch wie der teufel, dagegen ist G70-high-performance eine augenweide.
Sehr gut zusammengefasst. AA/AF-technisch kann ein R200 keinem NV2x das Wasser reichen. Ginge RGSSAA immer, wäre das natürlich anders.
MfG,
Raff
Nein, war er nicht (immer), auf meiner Prolink war die Qualität ziemlich bescheiden, Farben stimmten zwar, unscharf wars aber trotzdem.
Und ohne TV Tool hatte ich man gerad ~die hälfte des Schirmes ausgefüllt, rest war nicht benutztbar, mangels Einstellmöglichkeiten und scharf war was anderes...Vielleicht 1/4 des Schirms war nicht ausgefüllt.
TV-Out spielte damals eine noch geringere Rolle als heute.
Der TV-Ausgang wurde erst richtig interesant, als er unabhängig vom VGA-Ausgang nutzbar war, also die Grafikchip zwei Grafikcontroller hatten.
TV-Out spielte damals eine noch geringere Rolle als heute.Den Punkt sehe ich komplett anders. Die damals üblichen Auflösungen lagen sehr nahe an PAL und NTSC. Heute übliche Auflösungen liegen meist zwischen 720p und 1080i/p. Daher dürfte (HD)TV-Out früher genau so wichtig gewesen sein wie heutzutage.
Ich sehe heute mehr Leute die ihre Grafikkarte an ihren Fernseher anschließen wollen als früher, wo ihr Monitor das viel schärfere Bild brachte.
Und ich kannte früher Leute, die ihren PC wie einen Heimcomputer an den TV angeschlossen hatten und nicht mal einen Monitor besaßen. Anekdotenhafte Beweisführung hängt in ihren Ergebnissen halt sehr von den beteiligten Personen ab. Gibt es irgendwo verlässliche Statistiken zur Nutzungshäufigkeit des (HD)TV-Out und dessen Wandel im Lauf der Jahre?
StefanV
2007-09-15, 19:12:24
Vielleicht 1/4 des Schirms war nicht ausgefüllt.
TV-Out spielte damals eine noch geringere Rolle als heute.
Sorry, aths, aber was willst du mit diesem Posting eigentlich genau sagen?!
Ich sehe jetzt nicht unbedingt einen Sinn in deinem Posting, würdest du den bitte etwas näher erläutern??
Ganz ab davon halte ich deine Aussage für nicht korrekt...
Ich sehe heute mehr Leute die ihre Grafikkarte an ihren Fernseher anschließen wollen als früher, wo ihr Monitor das viel schärfere Bild brachte.
Filme sind aufm TV halt besser, schärfe ist nicht alles, zu scharf ist auch doof...
Der TV-Ausgang wurde erst richtig interesant, als er unabhängig vom VGA-Ausgang nutzbar war, also die Grafikchip zwei Grafikcontroller hatten.
Alle ATI Radeons, außer der R100, haben 2 Display Controller und DVI sowie TV Encoder integriert (ausnahme: R200, der hatn TV Encoder nicht drin).
Da wir hier von der GF4 TI sprechen, sei auch erwähnt, das eben jene auch 2 Display Controller beherrscht..
Sorry, aths, aber was willst du mit diesem Posting eigentlich genau sagen?!
Ich sehe jetzt nicht unbedingt einen Sinn in deinem Posting, würdest du den bitte etwas näher erläutern??Der Sinn ist, darauf hinzuweisen, dass du immer mit dem TV-Out kommst wenn die Argumente ausgehen. Als ob TV-Out-Qualität das Killerkriterium wäre. Für die meisten war (und ist) die TV-Out-Qualität irrelevant.
RavenTS
2007-09-15, 20:47:57
Ich denke die Frage kann man nur objektiv beantworten wenn man einige Benchmarks mit möglichst aktuellen Treibern fährt und dann die Besonderheiten der jeweiligen Generation auflistet, so daß jeder für sich entscheiden kann, welche nun besser ist, da ja beide Produkte doch mitunter recht unterschiedliche Vor- und Nachteile besitzen... Retrochbenchmarks.?!
Leider gibt es so gut wie keine Anwendungen welche die hervorragenden Pixelshader der Radeon 8500 ausnutzen. Nach dem Arithmetik-Teil erneut Texturen sampeln zu können und als Koordinaten Register aus dem Arithmetikteil zu nehmen eröffnet Möglichkeiten, die Pixelshader 1.3 so nicht bietet.
StefanV
2007-09-15, 21:42:59
Der Sinn ist, darauf hinzuweisen, dass du immer mit dem TV-Out kommst wenn die Argumente ausgehen. Als ob TV-Out-Qualität das Killerkriterium wäre. Für die meisten war (und ist) die TV-Out-Qualität irrelevant.
Nein, aths, der Sinn deines Postings war ganz einfach einen DICKEN Negativpunkt von älteren nVidia Karten zu relativieren und wegzureden, wie du es immer tust!
Ich hab von dir bisher kaum bis selten gelesen, das du nVidia kritisierst, ich les von dir immer nur Relativierungen, auch wenn nVidia große scheiße gebaut hast, bist du einer der ersten, der dann ankommt und sagen muss 'aber hey, so schlimm ist es nicht' und gerade die TV Out Geschichte bei älteren Karten ist wirklich erbärmlich, denn nVidia hat sich NIEMALS erbarmt oder Anzeichen gezeigt, das sie überhaupt gewillt sind, die Möglichkeit zu implementieren, das man die Bildgröße oder -Lage überhaupt justieren kann.
Bei Brooktree Encodern hatte man die Möglichkeit ihn zu aktivieren und deaktivieren, dann durft man noch einstellen, ob man eine S-Video oder Cinch Ausgabe hätte und das TV Format konnt man AFAIK auch einstellen, für einen solch großen Hersteller wie nVidia, ist das einfach nur schwach...
Die Ausrede das dafür der Hersteller der Karten verantwortlich wäre, ist noch schwächer, bei anderen Chipherstellern hats ja auch geklappt, das man die TV Encoder vernünftig angesteuert hat, ich glaub sogar 3DLabs hat das hinbekommen, PowerVR sowieso...
Denn allzu viele Chips gibts ja auch nicht, zu GF4 Zeiten sprechen wir von ZWEI (ok, 3, wobei der SAA7118 eine Variante des SAA7114 war) verschiedenen Chips, die auf dem nVidia Referenzdesign vorgesehen waren, der durchaus noch vorgesehene Chronotel Chip kam hingegen nie zum Einsatz...
Das die Chips keine MPEG2 Beschleunigung beherrschen ist zwar ärgerlich, aber auch nicht soo tragisch, war halt so, das man aber ein Alibifeature implementiert, das ohne Hilfe von anderen nicht zu gebrauchen ist, ist hingegen schon arm...
Aber das lässt du ja nicht gelten, das nVidia damals ziemliche scheiße gebaut hat, der Aufwand, der nötig wäre, um diesen Misstand zu beheben war auch nicht besonders groß, man hätt z.B. mal bei ELSA nachfragen können, ob sie die implementierte Ansteuerung rüberreichen würden, wäre alles nicht wirklich ein großer Akt gewesen, aber man wollte es nicht, man hat einfach auf diejenen welchen den TV Out gern benutzt hätten, geschissen...
Obs damals gebraucht ward oder nicht, ist irrelevant und nur eine Ausrede deinerseits, fakt ist das man einen TV Out hatte und den nicht gebrauchen konnte, der war (ohne TV Tool) unbenutzbar!
Und nein, es war nicht 1/4 nicht nutzbar, es war etwa die hälfte des Schirmes, die dunkel blieb!
Das man das mit GF4 MX und der FX Serie behoben hat, ist zwar schön, hilft aber den TNT-GF3 und GF4 TI Usern nicht weiter, die 'durften' sich ein Tool beschaffen, um die nötigen Einstellungen des TV Ausgangs einstellen zu können...
Obs damals gebraucht ward oder nicht, ist irrelevant und nur eine Ausrede deinerseits, fakt ist das man einen TV Out hatte und den nicht gebrauchen konnte, der war (ohne TV Tool) unbenutzbar!
Und nein, es war nicht 1/4 nicht nutzbar, es war etwa die hälfte des Schirmes, die dunkel blieb!Weiß jetzt nicht, ob auf der Asus Ti500 die gleichen TV-Encoder verbaut wurden wie auf den NV25ern, auf der war aber jedenfalls ViVo durchaus vernünftig benutzbar. Klopse wie einen zu einem Viertel bis der Hälfte schwarzen TV-Bildschirm habe ich mit der nicht mal ansatzweise erlebt. So eine Winzigkeit dramatisierst du die damals vorhandenen Probleme schon, oder?
Nein, aths, der Sinn deines Postings war ganz einfach einen DICKEN Negativpunkt von älteren nVidia Karten zu relativieren und wegzureden, wie du es immer tust!
Ich find TV-Out auch total unwichtig. Und ich behaupte, dass ist die große Mehrzahl der User.
Ich find TV-Out auch total unwichtig. Und ich behaupte, dass ist die große Mehrzahl der User.
Hi
Würde ich nicht sagen, gerade jetzt kommt der TV-Out immer mehr zur Bedeutung.
Gerade damals war der TV Out auch sehr beliebt, da sich nicht jeder einen DVD Player kaufen wollte.
Hinzu kommen noch unzählige Laptop User die den TV Out gerne benutzen und der Laptop Markt steigt ständig.
Ich denke das einige hier ständig etwas verwechseln.
Nur weil hier in den Forum ein grösser Teil deren Hardware als gegeben ansehen entspricht das bei weiten nicht die Richtigkeit.
Gruss Labberlippe
Hi
Würde ich nicht sagen, gerade jetzt kommt der TV-Out immer mehr zur Bedeutung.
Gerade damals war der TV Out auch sehr beliebt, da sich nicht jeder einen DVD Player kaufen wollte.
Hinzu kommen noch unzählige Laptop User die den TV Out gerne benutzen und der Laptop Markt steigt ständig.
Ich denke das einige hier ständig etwas verwechseln.
Nur weil hier in den Forum ein grösser Teil deren Hardware als gegeben ansehen entspricht das bei weiten nicht die Richtigkeit.
Gruss Labberlippe
Jap, vernünftige Lappis bieten heutzutage auch einen extra Knopf, um den TV-Out direkt ansprechen zu können - ohne TV out wäre zumindest in meinem Bekanntenkreis son mancher DVD-Abend ins Wasser gefallen.
Mit dem TV-Out der GF4 bin ich bestens zurecht gekommen, Probleme oder Augenkrebs hat der mir nie bereitet (Ausnahme: Treiber, der mit BF2 gekommen ist, da hatte ich Bildfehler auf dem TV).
Ich muß jedoch dazu sagen, dass ich wohl sehr anspruchslos bin, immerhin erkenne ich selbst heute ohne direkten Vergleich den Unterschied zwischen DX8 und DX9 beim Standard-Farcry nicht... (Asche auf mein Haupt!) Die Grafikeffekte, die bei mir den"WOW" Effekt ausgelöst haben (Wasser, Insekten/Vögel, Hitzeflimmern über Lava, wackelnde Lampen inkl. der Beleuchtung, Umgebung im Scope dargestellt etc.) hab ich auch unter DX8 sehen können. Nur die eckigen Schatten und das komische Pop-Up der Vegetation sind mir aufgefallen. Und da ich ab 70 HZ meist auch kein CRT-Flimmern mehr sehen kann wenn ich direkt auf den Moni schau, ist meine Aussage wohl kaum aussagekräftig... :)
n8
Und nein, es war nicht 1/4 nicht nutzbar, es war etwa die hälfte des Schirmes, die dunkel blieb!
komisch, die GF4Ti war die einzige karte (außer laptop) mit der ich hin und wieder den TV-out benutzt habe und der war durchaus brauchtbar.
TV-Out spielte damals eine noch geringere Rolle als heute.
ich denke eher umgekehrt. in zeiten wo HD das schlagwort ist wird sich kaum jemand mehr die bescheidene qualität eines TV-out antun.
wer wer einen PC benutzt tut dies normalerweise am monitor, wer einen HTPC hat, der hat normalerweise auch ein entsprechendes fernsehgerät welches über HDMI angesteuert wird und wer am TV spielen will hat eine konsole.
höchstens im notebook-bereich hat der tv-out noch eine kleine bedeutung, es ist ganz praktisch wenn man seinen DVD-player einfach einpacken und am nächstbesten fernseher anschließen kann. da mittlerweile durch die niedrigen preise in praktisch jedem haushalt ein DVD-player steht, ist auch hier der einsatz des TV-out praktisch hinfällig.
ich denke eher umgekehrt. in zeiten wo HD das schlagwort ist wird sich kaum jemand mehr die bescheidene qualität eines TV-out antun.Neben S-Video liefern die heutzutage auch YPbPr, also ein Komponenten-Signal.
komisch, die GF4Ti war die einzige karte (außer laptop) mit der ich hin und wieder den TV-out benutzt habe und der war durchaus brauchtbar.Sicher. Wenn Stefan nicht weiterweiß, holt er wieder seine TV-Out-Storys raus und stellt das als entscheidendes Kriterium hin.
Ich ärgere mich bis heute über die Overlay-Qualität der GeForce-Karten, die himmelschreiend schlecht ist. Das wertet die Modelle als Karte für 3D-Spiele aber nicht ab.
Rainman2k
2007-09-17, 00:02:40
hi,
wenn die nvidia jünger es so wollen drehen wir dne spiess um
- bei nvidia zahlte man für ein feature, welches mit hauseigener Software nie funktioniert hat.
Was will ich mit nem tv out, der nur die haelfte des Bildes eindeckt? (und so war es und ist es heute immer noch, 2t pc rechner: tv out drin, halbschwarzes bild)
Also rühmt nvidia sich auf jeder packung mit tv out, wos garnicht richtig nutzbar ist.
und für die 20% die wert auf den tv ausgang legen finde ich für die Preise, die sone gf4 ti damals gekostet hat das eine ziemliche unverschämtheit.
(die 20% war ein fiktiver wert, ich denke, die Nutzzahlen der tv outler ist höher - wenn cih bie bekannten LAIEN schon sehe, das die sich dadurc das filme - auf - dvd abbrennen ersparen!!!! )
Ich hab tv out von anfang an häufig genuzt, und noch heute kozt es mich an, das ich beim 2tpc mit der gf1 ddr erst ein 2t tool anmachen muss, um ein Buntes, bildschirmfüllendes signal aufm tv out zu bekommen.
Gruss
StefanV
2007-09-17, 00:07:28
aths, mal 'ne Frage an dich:
Was glaubst, hätte es nVidia gekostet, Einstellungen für Bildlage und -größe zu implementieren bzw einfach einen Overscan Button??
2 Stunden?? 3 Stunden??
Der Punkt mit den TV Encodern ist insofern lächerlich als das nVidia hätte sagen könne: 'diese und jene dürft ihr nehmen', von daher ist das auch kein Argument....
Bzw man hätte einfach nur bei ELSA nachfragen müssen, damals zu TNT Zeiten (beim Deto 5.3 oder so wars noch drin).
Eben, genau das ist der Punkt, solche Settings zu implementieren ist wirklich nicht besonders aufwendig, das ist dazu auch noch 'ne 'do it and forget' Aufgabe, bei der man nicht allzu viel versauen kann, ergo ist es absolut unverständlich, warum es nicht getan wurde....
@Rainman2k
Genau _DAS_ trifft der Punkt!
Es ist ein Feature, was ich bezahlt hab, was aber ohne Hiflsmittel nicht wirklich benutzbar ist...
Das mit der hälfte des Bildes ist leider keine Übertreibung, das dürft sogar recht gut hinkommen, wenn das jemand ausrechnen würde, dürfte das sogar hinkommen, auch wenns garnicht soo viel ausschaut...
Mich würde das mit "der Hälfte des Bildes" echt mal interessieren. Ich bin bei weitem kein Profianwender, aber wie ihr das hinbekommen habt würde mich echt mal interessieren! Immerhein bin ich der Gast, der seine Unempfindlichkeit gegenüber DX8/DX9 oder Moniflimmern zugegeben hat...
Also: bitte mal Treiberversionen und Einstellungen posten, ich würde es gerne mal probieren.
StefanV
2007-09-17, 00:16:31
Mich würde das mit "der Hälfte des Bildes" echt mal interessieren.
Das hast du, wenn du ein Bild, hast bei dem links und rechts ein Rand ist, aufgrund der größeren Fläche außen, fällt ein kleinerer Rand doch sehr stark ins Gewicht, Flächenmäßig...
Von daher ist 'die Hälfte' (der Fläche des TVs) auch nicht soo falsch...
Also: bitte mal Treiberversionen und Einstellungen posten, ich würde es gerne mal probieren.
Welche Einstellungen?!
Es gibt doch nur an/aus, mehr kann man doch nicht einstellen! :ugly:
aths, mal 'ne Frage an dich:
Was glaubst, hätte es nVidia gekostet, Einstellungen für Bildlage und -größe zu implementieren bzw einfach einen Overscan Button??Hätten genug Leute danach gefragt, wäre es reinprogrammiert worden. Mir ist auch schleierhaft warum ich offenbar der einzige bin der sich über das Overlay aufregt (grobes Bild, schlechte Skalierung, keine Gamma-Korrektur) welches zum Video-Playback ziemlich unbrauchbar ist. Aber wie man sieht tat das den Verkäufen keinen Abbruch.
Hätten genug Leute danach gefragt, wäre es reinprogrammiert worden.
Wieso wäre? Die Nvidia Treiber bieten doch beides (Lageregelung + mehrstufigen Overscan).
Das hast du, wenn du ein Bild, hast bei dem links und rechts ein Rand ist, aufgrund der größeren Fläche außen, fällt ein kleinerer Rand doch sehr stark ins Gewicht, Flächenmäßig...
Von daher ist 'die Hälfte' (der Fläche des TVs) auch nicht soo falsch...
Welche Einstellungen?!
Es gibt doch nur an/aus, mehr kann man doch nicht einstellen! :ugly:
So, hab mal die Nase direkt an den Fernseher gedrückt und ein Vollbild vom normalen TV (also 4:3) mit dem Desktopbild vom TV-Ausgang verglichen. Rechts, links und unten wird das Bild bis zu den Grenzen der Maske angezeigt (sieht man sehr gut, an den Rändern ist eine schwarze Folie angebracht), also KEIN Rand. Nur oben befindet sich ein schmaler Rand von etwa 3-5 mm Breite. Bei Videowiedergabe ist ein sehr schmaler Rand an allen Seiten zu erkennen (nur wenn man drauf achtet!), jedoch habe ich diesen Rand auch auf dem Monitor.
Achja, die Probleme bei Gamma-, Helligkeit- und Kontrasteinstellungen kann ich ebenfalls nicht bestätigen. Wenn das nicht möglich wäre, könnte ich den TV-Out garnicht nutzen - aus irgendeinem Grund (Treiber? Früher war es jedenfalls nicht so) ist das TV-Out Bild bei mir ohne die Einstellungen zu verändern VIEL zu dunkel.
Kann es sein, dass du eine gf4mx und keine gf4ti hast?
StefanV
2007-09-17, 16:05:50
Kann es sein, dass du eine gf4mx und keine gf4ti hast?
Davon gehe ich auch mal aus...
Denn die GF4 MX war durchaus recht brauchbar, bei den integrierten TV ENcodern hat nV eine einigermaßen brauchbare Implementierung hinbekommen, wobei die Größe nicht für höhe und Breite getrennt einstellbar ist, was irgendwie auch ziemlicher Mist ist, da das BIld so teilweise gestaucht wird...
Kann es sein, dass du eine gf4mx und keine gf4ti hast?
Nein, das kann nicht sein, es ist eine GF4Ti.
Mit BT871 encoder und der steht den Radeons in punkto TV-Ausgang in nichts nach.
Der HeinZ
2007-09-19, 21:21:57
Hallo, auch mal meinen Senf dalass.
Hab in meinem X2 einfach mal ne Geforce 4200 (MSI) reingepackt. :)
TV-Out:
Hmm also was war nun das Problem mit dem halbschwarzen Bildschirm?
Hab ich net.
Und schlechte Bildqualy? Hab ich auch nich. (Philips 7108A)
Hab den Svideo Ausgang über einen Scart Adapter dran, kann jetzt nicht wirklich meckern.
Zoggen:
Naja durch den aktuellen Treiber kann man max 11000 bei 3dmark01 (!) rausholen (Standardtakt ohne AA+ ohne AF auf High Qualy einstellung) Mit übertakten sind knapp 13000 drin.
Nicht weltbewegend aber naja, dafür ist der Spaß auch zu alt.
Ansonsten ne nette Karte. Kann es aber leider nicht mit der 8500er vergleichen, vielleicht bekomm ich ja mal eine.
Gruß Der HeinZ :|
Ach ja Treiber ist der 94.24
Overlay hat sich gegessen mit Vista. Mir is kein TV-Viewer oder Grabbing Tool bekannt das es schafft eine Quelle mit ne Overlay darzustellen. Dscaler säuft hemmunglos ab wenn es ne Surface createn will...
on topic, die frage stellt sich nur wenn man beide karte hat, ansonsten von der neuesten generation das billigste teil (50€?) kaufen und gut is...
Overlay ist bei Vista aber auch gar nicht mehr nötig durch die Desktop-Composition. Die Programme müssen sich dennoch anpassen.
StefanV
2007-09-20, 03:24:50
stimmt schon, bei TV Karten hat man auch nicht unbedingt ein Problem, die unterstützt das Mediacenter von Haus aus, sofern man keine DVB-S Karte nutzt...
Damit hab ich aber auch 'nen gewaltgies Problem gehabt, denn ich hab meine Skystar2 nie unter Vista benutzen können.
Und nein, es lag nicht am Treiber, das war ja das schlimme :ugly:
_DrillSarge]I[
2007-09-20, 14:47:34
Overlay hat sich gegessen mit Vista. Mir is kein TV-Viewer oder Grabbing Tool bekannt das es schafft eine Quelle mit ne Overlay darzustellen. Dscaler säuft hemmunglos ab wenn es ne Surface createn will...
on topic, die frage stellt sich nur wenn man beide karte hat, ansonsten von der neuesten generation das billigste teil (50€?) kaufen und gut is...
bei meiner terratec (1200 dvb-s) funktionierts, allerdings wird dann aero deaktiviert. stört mich auch, da die bilder ausm vmr9/7 renderer so verwaschen wirken.
LordDeath
2007-09-21, 22:22:36
stimmt schon, bei TV Karten hat man auch nicht unbedingt ein Problem, die unterstützt das Mediacenter von Haus aus, sofern man keine DVB-S Karte nutzt...
Damit hab ich aber auch 'nen gewaltgies Problem gehabt, denn ich hab meine Skystar2 nie unter Vista benutzen können.
Und nein, es lag nicht am Treiber, das war ja das schlimme :ugly:
skystar 2 mit 4.4.1 beta treiber, progdvb 4.73 mit der p4 optimierten .dll und den neusten ffdshow tryouts auf VMR9: funzt. achja: vista x64 :naughty:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.