Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 7
Daredevil
2007-04-05, 13:09:39
Ist das eine Vollwertige Soundkarte die nicht unnötig die CPu belastet?
w0mbat
2007-04-05, 13:15:33
Der R600 soll ja keine Soundkarte ersetzten sondern nur die Vistastandartds einhalten.
Ist das eine Vollwertige Soundkarte die nicht unnötig die CPu belastet?
Nein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5382686&postcount=221
OMG!
http://www.forumdeluxx.de/forum/showpost.php?p=5834056&postcount=1608
http://www.awardfabrik.de/forum/showpost.php?p=40726&postcount=398
w0mbat
2007-04-05, 13:42:21
Toller Gast -.- Kann ein Mod das mal löschen?
Toller Gast -.- Kann ein Mod das mal löschen?
Warum sollte er? Schonmal was von freier Meinungsäußerung gehört?
Toller Gast -.- Kann ein Mod das mal löschen?
Wenn wir von der bisherigen Logik von ATI ausgehen, und der R600 nur zusammen mit den neuen Desktop Starcores ausgeliefert werden soll, dann wirds wohl erst Q3 was im Laden geben.
@topic: AMD will die Desktop CPUs zwar erst im Q3 bringen, der Agena läuft aber schon wunderbar. Ich frage mich wieso sie ihn nicht schon zusammen mit dem R600 launchen.
Von dem her kann ich ATIs Denken nicht ganz nachvollziehen.
laser114
2007-04-05, 13:48:37
Toller Gast -.- Kann ein Mod das mal löschen?
Naja, wenn die AF das meint, wieso nicht?
Ihre Beweislinks gehen ja sowieso nicht.
Und das du pro AMD/ATI bist ist ja nun wirklich nichts neues. ;)
Das im ForumdeLuxx ist sowieso mehr lustig als ernst.
Die Bewwislinks @ Forumdeluxx wurden leider schon gelöscht...
Nakai
2007-04-05, 15:21:13
Die Bewwislinks @ Forumdeluxx wurden leider schon gelöscht...
Warum wohl oder?
Meine Güte, entweder glaubt ihr w0mbat oder nicht, dass ist euer Problem.
Das er gute und verlässliche Infos hat, kann keiner bestreiten aber ihn dann als Werbemittel von AMD zu bezeichnen halte ich für dumm.
Ich finde die Soundkarte im R600 zwar interessant, aber nicht geeignet.
Was soll man denn mit einer Karte die mehr als 150 Watt schluckt als Multimediading verwenden. Und selbst wenn sie vor sich hin idled ist sie zu stromfressend.
mfg Nakai
Das er gute und verlässliche Infos hat, kann keiner bestreiten aber ihn dann als Werbemittel von AMD zu bezeichnen halte ich für dumm.
Doch.
Dann soll er doch einfach auspacken. Aber wie er gute "Insider", hat er kaum Informationen.
Da halte ich fuad glaubwürdiger als ihn.
Daluxx
2007-04-05, 15:42:56
Besonders das mit dem Athlon 64 X4 Exan 90% schneller als QX6700@3GHz:ucrazy: Stimmt das echt mit wOmbat,dass ihn AMD und ATI bezahlt?
Fetza
2007-04-05, 15:51:50
Warum wohl oder?
Meine Güte, entweder glaubt ihr w0mbat oder nicht, dass ist euer Problem.
Das er gute und verlässliche Infos hat, kann keiner bestreiten aber ihn dann als Werbemittel von AMD zu bezeichnen halte ich für dumm.
mfg Nakai
Gute und verlässliche informationen? Hab ich bisher zuwenig darauf geachtet, oder warum fällt mir grad nix ein?
Also was ich da in den anderen foren eben gelesen hat, finde ich schon etwas erschreckend.
w0mbat
2007-04-05, 16:06:27
Schreibfehler, oder läuft die X2900er Serie schon mit dem 7.3er?
http://img293.imageshack.us/img293/7732/x2900ez5.jpg
Das könnte man leicht rausfinden, wenn schon D3D10-Teile im Treiber vorhanden sind. Sonst wird's etwas schwieriger.
w0mbat
2007-04-05, 16:24:05
Die Seite ist jetzt down, wird als immer wahrscheinlicher das es kein Schreibfehler war.
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=26661
reunion
2007-04-05, 16:24:54
Durchaus möglich, ursprünglich sollte ja R600 ungefähr zu diesem Zeitpunkt kommen, also wäre der Cat 7.3 vermutlich der Launchtreiber gewesen.
Nakai
2007-04-05, 16:26:51
Besonders das mit dem Athlon 64 X4 Exan 90% schneller als QX6700@3GHz:ucrazy: Stimmt das echt mit wOmbat,dass ihn AMD und ATI bezahlt?
Lol das war der 1te April...omg
Hab ich bisher zuwenig darauf geachtet, oder warum fällt mir grad nix ein?
Also was ich da in den anderen foren eben gelesen hat, finde ich schon etwas erschreckend.
Ja...wenn man ihn nicht kennt, kann das schon den Eindruck erwecken.
mfg Nakai
foenfrisur
2007-04-05, 18:26:43
is doch total latte, wie wombat sein geld verdient. würde doch jeder (wenn es denn so ist) genauso machen :)
und warum schreiben die, das er für das erstellen von sammelthreads geld bekommt, wenn er sie doch oftmals nicht selber erstellt hat??
der gast ist vermutlich von intel und nv für sein kommentar bezahlt worden :)
es wird ja niemand von ihm dazu gezwungen, nichts ausser ati/amd zu kaufen...
und selbst wenn hier amd-vize persönlich schreibt isses immernoch wurscht ;)
von daher verstehe ich den kleinen aufstand nicht...
mfg
ich denke wombat geht noch zur schule
und warum schreiben die, das er für das erstellen von sammelthreads geld bekommtmfg
Das hat w0mbat selbst @ HWluxx geschrieben :rolleyes:
der gast ist vermutlich von intel und nv für sein kommentar bezahlt worden :)mfg
Nein ist er nicht :)
laser114
2007-04-05, 19:00:43
Eh hier gehts um den R600, nicht um Spekulationen über wombat.
AMD startete 2002 das geheime und umstrittene Projekt "w0mbat". Ziel war es ein menschliches Programm zu entwickeln das Werbung für die Firma macht.
Und was du in obenstehendes Zitat (von w0mbat selbst) hineininterpretierst, finde ich doch sehr nett. Aber ich lass dir den Spaß mal. :D
Schreibfehler, oder läuft die X2900er Serie schon mit dem 7.3er?
http://img293.imageshack.us/img293/7732/x2900ez5.jpg
Fudo hats auch gerade abgesegnet. X2900 dürfte somit jetzt offiziell sein.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=424&Itemid=1
Treiber verrät Einzelheit: Sound kommt von Realtek (http://www.hartware.de/news_41803.html)
w0mbat
2007-04-06, 00:35:24
Was hat ein R580 HDMI Treiber mit dem R600 zu tun? Ist doch für den R580?!
BTW: http://forums.techpowerup.com/showthread.php?t=28838
R600 aka X2900 = $499
RV630XT aka X2600 XT = $199
Deckt sich mit meinen "Aprilscherzpreisen".
laser114
2007-04-06, 00:40:08
Deckt sich mit meinen "Aprilscherzpreisen".
Würde mich nicht wundern, wenn das über 3 Ecken auch die Quelle war.
Gerade wenn solche Seiten sich nicht mit unseren Traditionen auskennen...
w0mbat
2007-04-06, 00:41:38
In U, S und A gibt es aber auch den ersten April.
laser114
2007-04-06, 00:43:44
Aufbereitet von einer asiatischen Website (per Übersetzer), und dann wieder zurück in die USA ... warum nicht? ;)
Gibts den Aprilscherz eigentlich in allen europäischen Ländern? Sonnst könnte er so auch "ausgewandert" sein.
Wenn die Preise Stimmen solten, dann is der R600 wohl nich schnell genug.
Wenn die wirklich 20% schneller sein sollte, verkauft man die doch net für
< 450€. Niemals.
Aber lassen wir uns überraschorn ;)
w0mbat
2007-04-06, 01:04:18
Der R600 soll lau AMD ja schnell und trotzdem billig sein. AMD will auf Teufel komm raus verkaufen.
laser114
2007-04-06, 01:06:28
Der R600 soll lau AMD ja schnell und trotzdem billig sein. AMD will auf Teufel komm raus verkaufen.
Also als Kunde habe ich gegen eine solche Unternehmensstrategie wenig. :D
Aber neben Marktanteilen sind doch vor allem die Gewinne interessant ... zumindest langfristig.
Der R600 soll lau AMD ja schnell und trotzdem billig sein. AMD will auf Teufel komm raus verkaufen.
DAS klingt halt alles so schön um wahr zusein :)
Aber i hätte nix dagegen ;) man sieht ja was bei AMD vS. Intel rauskommt.
Wir haben bei beiden seiten top leistung zum sehr gutem preis. Uns als verbraucher kanns nur recht sein :D
DAS klingt halt alles so schön um wahr zusein :)
:D
also 500euro sind alles andere als günstig
laser114
2007-04-06, 01:22:16
also 500euro sind alles andere als günstig
Grakas sind keine Konsolen, $ = € gilt dort eher nicht.
Ailuros
2007-04-06, 01:57:53
Komischerweise ist die Liste ziemlich genau fuer das RV630 Modell aber etwas ungenau was eine X2900-wasauchimmer kosten soll. Natuerlich wird ein 2900-Modell nur $499 kosten, aber ob dieses wirklich der Preis der XTX ist bleibt abzusehen.
Fetza
2007-04-06, 04:19:32
Also als Kunde habe ich gegen eine solche Unternehmensstrategie wenig. :D
Aber neben Marktanteilen sind doch vor allem die Gewinne interessant ... zumindest langfristig.
MIt dem r600 werden die wohl kaum langfristig denken, da geht es jetzt darum, möglichst viele chips an den mann zu bringen, damit nv nicht praktisch in 80% der high-end gaming pc`s steckt. Wäre schlecht fürs image und entwickler sehen dann bestimmt auch keinen grund für ati zu optimieren.
horn 12
2007-04-06, 07:32:02
Langsam könnte doch ATI - Hörnchen Recht behalten bei all seinen "Vermutungen". Der R600 soll ein Klassiker werden?!?:cool:
AnarchX
2007-04-06, 10:19:16
http://img177.imageshack.us/img177/4020/atichipszx8.png
?
(Quelle) (http://hardware.mydrivers.com/2/80/80624_12.htm)
(Anmerkung: 256Bit wurde von Google mit CMOS übersetzt, Xiancun = memory)
Treiber verrät Einzelheit: Sound kommt von Realtek (http://www.hartware.de/news_41803.html)
Kann auch nur der Treiber sein, denn AC97/HDA-Chips sind untereinander kompatibel.
AnarchX
2007-04-06, 10:27:15
Die HDMI Treiber scheinen wohl nichts so besonderes (http://forum.beyond3d.com/showpost.php?p=963207&postcount=1562) zu sein:
Those drivers are for a R5xx class card that has HDMI on it. Realtek has had them posted for a while. I wondered when I saw them a while back as well.
Wenn die Preise Stimmen solten, dann is der R600 wohl nich schnell genug.
Wenn die wirklich 20% schneller sein sollte, verkauft man die doch net für
< 450€. Niemals.
Aber lassen wir uns überraschorn ;)
ich glaube AMD will NVidia jetzt endgültig ne Klatsche verpassen nachdem sie schon solange im HighEnd segment nicht mitziehen konnten
Ailuros
2007-04-06, 13:13:34
ich glaube AMD will NVidia jetzt endgültig ne Klatsche verpassen nachdem sie schon solange im HighEnd segment nicht mitziehen konnten
Glaubst Du ernsthaft dass eine 1GB/GDDR4 bestueckte GPU nur $499 kosten soll? Wie jemand bei B3D schon sagte, wird die XT frueher verfuegbar sein als die XTX.
w0mbat
2007-04-06, 13:43:03
DAAMIT invited bunch of journalists about 185 if we remember correctly for this event and ATI will show some hot things such as RD790 chipsets and ten display R600 setup powered with Agena FX CPU (a desktop version of native quad core also known as Barcelona).
http://www.fudzilla.com/index.php?option=com_content&task=view&id=443&Itemid=1
Dürfen dann die Journalisten endlich berichten, was sie gesehen haben , oder nicht?
Ich vermute mal nein, da die Öffentliche Präsentation später ist, und in der Regel fällt erst da das Datum. Bisher gabs glaube noch keinen NDA Ablauf zum TecDay einer Generation.
Blutmaul
2007-04-06, 15:14:53
Ich frage mich nur, wem so eine NDA noch nutzt?
Die Konkurrenz kann sich jetzt schon ausmalen, was auf sie zu kommt und wird es spätestens eine Stunde nach der Veranstaltung ganz sicher wissen.
Alle anderen Spekulieren das Blaue vom Himmel herunter...
Naja mit der NDA hällst du die Presse eben auf, alles auszuplaudern. Mit dem Fall der NDA gibst du dir selber einen großen Marketing Schub, gebündelt von allen Webseiten. Sowas ist ja nich zu verachten, weils kostenlos ist ;)
Und das macht man eben erst dann wenn wirklich die Produkte im Regal sind, dann kann jeder, entzündet vom Pressefieber, einkaufen gehen.
Zumindest ist es so gedacht, und bis zum Fall der NDA "lebst" du von den Gerüchten im Internet damit dein Produkt in aller Munde bleibt und nicht untern Tisch fällt.
Daredevil
2007-04-06, 15:25:01
Die Konkurrenz weiß ja eben nicht was Sache ist, deswegen denke ich mal das man da so ein Geheimniss raus macht.
Strategisch is das auch ein Vorteil, wenn die Kunden im März gewusst hätten das der R600 vieleicht nur 20% schneller ist, hätten viele bestimmt drauf gepfiffen und zu einer G80 gegriffen, wenn allerdings nichts konkretes bekannt ist warten viele noch weil sie denken, das der R600 ja vieleicht doch besser ist aber man ja nichts davon weiß.
Genau so warte ich auch :(
Wenn ein Spielekracher wie Crysis gekommen wäre, hätte AMD auch released da bin ich mir sicher. Software sells Hardware zählt auch im PC Bereich, auch wenns net so stark wie im Konsolenbereich ausgeprägt ist.
Ein DX10 Kracher und AMD wäre gezwungen gewesen den "Januar" R600 auf den Markt zu bringen, aber die 8800Serie dümpelt ja auch ohne passende Software vor sich hin, Leistungsfresser mal ausen vor.
Wie wichtig der HIghendMarkt wohl wirklich ist sieht man ja, das bei schwachem Softwareangebot und dadurch resultierender Nachfrage man auf 150-200k Einheiten Highend Verkauf verzichten kann.
Anderster kann mans nicht erklären warum man auf Absatz verzichtet und erst im Mai mit den Karten anrückt, zumal die GDDR4 XTX Version ja noch später kommen soll?
Mainstream kommt ja von beiden jetzt endlich auf den Markt, aber die sind wohl nur für OEM Verträge interessant da noch kein Killer dabei ist, der mit der alten Highend Generation gleichzieht, Preislich wie Leistungstechnisch. Da kauft kein 7600GT/X1600 Besitzer ne Graka, die keine gescheiten Treiber bietet und nicht wirklich den Staub von der Palme pustet, 300€ sind für das Massensegment halt zuviel, neue 200€ Karten sind, wie die Gerüchte zur 8600GTS zeigen, nicht so die erhofte Rakete, und das "alte" Highend will keiner kaufen, weil is ja kein DX10 und überhaupt.
Also wird weiter gewartet bis im Herbst vieleicht mal was kommt das für 200€ DX10+VistaTreiber und Performance im bereich einer X1900XT bietet.
Die Konkurrenz weiß ja eben nicht was Sache ist, deswegen denke ich mal das man da so ein Geheimniss raus macht.
Strategisch is das auch ein Vorteil, wenn die Kunden im März gewusst hätten das der R600 vieleicht nur 20% schneller ist, hätten viele bestimmt drauf gepfiffen und zu einer G80 gegriffen, wenn allerdings nichts konkretes bekannt ist warten viele noch weil sie denken, das der R600 ja vieleicht doch besser ist aber man ja nichts davon weiß.
Genau so warte ich auch :(
Nur sind die 20% Schneller, von Tag zu Tag nix mehr wert. 6 Monate gibts den G80 nun. Der G80 braucht sich sicherlich nicht vor den R600 verstecken. er is immerhin schon gute 6 Monate aufm Markt ;)
MadHatter666
2007-04-06, 17:46:23
Anderster kann mans nicht erklären
:biggrin:
LOL "anderster" - ich schmeiss mich weg ;D
Ist ja noch besser als "das einzigste".
Wie sagte mein Deutschlehrer damals? Kaufen du Packung Deutsch, kosten nur wenig viel Geld...
Sorry 4 OT, ich konnte einfach nicht anders :redface:
@ Topic:
Der R600 ist einfach viel zu spät, selbst wenn das Ding ein Kracher wird und den G80 um Längen schlägt (was ich nicht glaube), so ist der Großteil der Kundschaft doch schon längst mit einem G80 glücklich geworden.
Zudem, bis erste DX10-Games auf den Markt kommen, hat nv schon längst den Refresh des G80 auf dem Markt.
Naja, anyway, abwarten und Tee trinken.
"anderster".... :D
Nakai
2007-04-06, 18:10:36
Hier geht eher drum, dass der R600 den RV630 und RV610 unterstützt.
mfg Nakai
horn 12
2007-04-06, 18:26:13
Der R600 kommt nicht zu spät, dass er aber spät kommt ist absolut richtig,- und ich warte auch schon lange drauf.
Dies wird aber der Sache nichts anhaben können, da es momentan noch keine D3D10 Games gibt, und diese werden wohl erst Anfang Juli/ (frühestens Juni)kommen. Da könnte die "Verspätheit" des R600 gar etwas ausmachen, da man besser und weiter optimieren konnte als beim G80. Der G80 ist sicherlich enorm gut, nur wollte NV den Markt damit sättigen, obwohl noch kein Bedarf war. Ähnlich mit SM3.0 Karten wie 6600 / 6800 und Co.
Ati wollte sicherlich auch den R600 "früher" bringen, da hat aber wohl AMD dies zu verhindern gewusst. In der Zwischenzeit wurde optimiert und die Taktraten nach oben( >=850 Mhz) geschraubt. Welche den Takt nicht schaffen werden als XT (wenige) und die anderen als XL verkloppt.
Somit wird der Abstand zum G80 größer ausfallen als es noch im Jänner/ Februar-MÄRZ GEPLANT war.
Der R600 wird ein komplett überdachter und ausgereifter GPU Kern werden mit gar einigen Schmankern als Zusatz (nicht nur der Realtek Sound)
Es gilt natürlich abzuwarten, was es mit dieser Soundlösung auf sich hat.
Wenn es tatschächlich so ist, daß der Sound auf der gpu berechnet wird, anstatt die cpu damit zu belasten, ist das wirklich ein Hammer.
Und Creative hätte ein Problem...
James Ryan
2007-04-06, 18:37:43
Der R600 kommt nicht zu spät, dass er aber spät kommt ist absolut richtig,- und ich warte auch schon lange drauf.
Dies wird aber der Sache nichts anhaben können, da es momentan noch keine D3D10 Games gibt, und diese werden wohl erst Anfang Juli/ (frühestens Juni)kommen. Da könnte die "Verspätheit" des R600 gar etwas ausmachen, da man besser und weiter optimieren konnte als beim G80. Der G80 ist sicherlich enorm gut, nur wollte NV den Markt damit sättigen, obwohl noch kein Bedarf war. Ähnlich mit SM3.0 Karten wie 6600 / 6800 und Co.
Ati wollte sicherlich auch den R600 "früher" bringen, da hat aber wohl AMD dies zu verhindern gewusst. In der Zwischenzeit wurde optimiert und die Taktraten nach oben( >=850 Mhz) geschraubt. Welche den Takt nicht schaffen werden als XT (wenige) und die anderen als XL verkloppt.
Somit wird der Abstand zum G80 größer ausfallen als es noch im Jänner/ Februar-MÄRZ GEPLANT war.
Der R600 wird ein komplett überdachter und ausgereifter GPU Kern werden mit gar einigen Schmankern als Zusatz (nicht nur der Realtek Sound)
Wer sich einen G80/R600 für DX10 kauft ist absolut selbst Schuld. :rolleyes:
Diese Karten kauf man sich für aktuelle DX9 Titel und nicht für "die Zukunft".
Außerdem wird AMD beim R600 weniger seine Finger drin gehabt haben als vermutet wird.
Zum letzten Satz von dir: Welche "Schmankerl" wird der R600 noch bringen? Ich hoffe eine bessere BQ als R580, sonst kann ATi den R600 gleich zu Hause lassen.
MfG :cool:
horn 12
2007-04-06, 18:41:41
Die BQ unterscheidet sich bereits beim R580 sehr gering zum G80. Mann kann dazu nicht Standbilder verwenden, oder zockt ihr alle in Zeitlupe. Das AF ist beim G80 nur geringfügig besser und das AA in etwa gleich. Beim R600 kommen aber neue AA Modi und der AF wird auch weiterentwickelt worden sein. Aber bitte bleiben wir beim Thema R600 und nicht wieder OT. (Mich eingeschlossen, daher psst)
Nur sind die 20% Schneller, von Tag zu Tag nix mehr wert. 6 Monate gibts den G80 nun. Der G80 braucht sich sicherlich nicht vor den R600 verstecken. er is immerhin schon gute 6 Monate aufm Markt ;)
und wer wirklich Ahnung hat interessiert sich nicht für lächerliche % Schnelligkeit,er wartet auf ATI weil sie bessere Bildqualität und Treiber bieten.
dargo
2007-04-06, 18:45:04
Wer sich einen G80/R600 für DX10 kauft ist absolut selbst Schuld. :rolleyes:
Diese Karten kauf man sich für aktuelle DX9 Titel und nicht für "die Zukunft".
Außerdem wird AMD beim R600 weniger seine Finger drin gehabt haben als vermutet wird.
Volle Zustimmung. Ein G80 (und eventuell ein R600) sind sehr gute DX9 GPUs. Bis D3D10 Titel erscheinen gibts eh schon von beiden Refresh GPUs.
dargo
2007-04-06, 18:48:40
und wer wirklich Ahnung hat interessiert sich nicht für lächerliche % Schnelligkeit,er wartet auf ATI weil sie bessere Bildqualität und Treiber bieten.
1. LOL
2. Ob ATI bessere Treiber liefert muss sich erst zeigen. Noch haben sie nicht mit einer neuen Generation und WinXP 32/64Bit und Vista 32/64Bit zu kämpfen.
reunion
2007-04-06, 18:50:30
Volle Zustimmung. Ein G80 (und eventuell ein R600) sind sehr gute DX9 GPUs. Bis D3D10 Titel erscheinen gibts eh schon von beiden Refresh GPUs.
Es gibt auch Leute, und ich behaupte diese sind in der überzahl, die ihre Grafikkarte länger als bis zum nächsten Refresh behalten.
Zum letzten Satz von dir: Welche "Schmankerl" wird der R600 noch bringen? Ich hoffe eine bessere BQ als R580, sonst kann ATi den R600 gleich zu Hause lassen.
Demnach hätte es nV nie wagen dürften, die G7X-Serie zu veröffentlichen. Denn im Gegensatz zu R580 vs. G80 gibt es hier gravierende IQ-Defizite.
dargo
2007-04-06, 18:58:53
Es gibt auch Leute, und ich behaupte diese sind in der überzahl, die ihre Grafikkarte länger als bis zum nächsten Refresh behalten.
Diese Leute die du meinst kaufen sich eh nie eine High-End Grafikkarte.
reunion
2007-04-06, 19:06:00
Diese Leute die du meinst kaufen sich eh nie eine High-End Grafikkarte.
Das glaube ich nicht. Schau doch wie viele Leute heute noch mit einer 9700pro/9800pro spielen. Nicht jeder will alle sechs Monate an seinem PC herumbasteln, viele kaufen sich alle zwei/drei Jahre eine High-End-Grafikkarte, und hoffen damit möglichst lange auszukommen.
dargo
2007-04-06, 19:13:15
Das glaube ich nicht. Schau doch wie viele Leute heute noch mit einer 9700pro/9800pro spielen.
Und wer sagt, dass all die Leute diese Karten beim Erscheinen gekauft haben?
reunion
2007-04-06, 19:17:46
Und wer sagt, dass all die Leute diese Karten beim Erscheinen gekauft haben?
Ein beträchtlicher Anteil hat diese Karte sicherlich schon sehr früh gekauft. Die Karten verkauften sich damals wie warme Semmeln. Aber was macht das für eine unterschied im Bezug auf unsere Diskussion? Viele Leute behalten ihre Karte eben wesentlich länger, und deshalb finde ich solche Argumente ala "D3D10 ist nicht wichtig, denn bis dahin gibt es eh schon den Refresh" sehr einseitig gedacht. Auch wirkt sich das Problem eines High-End-Chips, der bei neuen Features nur sehr langsam ist, ja noch viel stärker auf die anderen Segmente aus.
dargo
2007-04-06, 19:21:55
Was macht das für eine unterschied im Bezug auf unsere Diskussion?
Der Preis spielt eine grosse Rolle. Ich hatte damals für eine R9700Pro 430€ gelöhnt. Eine R9800Pro gabs aber auch einige Zeit später für ~200€.
reunion
2007-04-06, 19:23:12
Der Preis spielt eine grosse Rolle. Ich hatte damals für eine R9700Pro 430€ gelöhnt. Eine R9800Pro gabs aber auch einige Zeit später für ~200€.
Du weichst vom Thema ab. ;)
sry für ot meinerseits, aber war dein lehrer zufällig in der ss oder warum äußerte er sich so feindlich gegenüber leuten die evtl. nicht 100% hochdeutsch sprechen oder gar eines dialektes mächtig sind (derer es in deutschland ca. 300 gibt + unzählige mundarten)?
Ballflachhalten *g
Dargo weiß noch nichtmal das ati immernoch das klar bessere normal AA hat .
ich würde mal fachartikel lesen und nicht nur benchmarks angucken
seahawk
2007-04-06, 20:10:31
Diese Leute die du meinst kaufen sich eh nie eine High-End Grafikkarte.
Ich kaufe jede Geneartion nur einmal. Also 9700pro, dann (leider) 7800GT und in Kürze wird wieder eine KArte gekauft.
Man muss sehen wie schleppend sich die 8800er verkaufen, viele Leute warten auf die erste leistungsfähige DX10 Karte.
ShadowXX
2007-04-06, 20:20:27
Dargo weiß noch nichtmal das ati immernoch das klar bessere normal AA hat .
ich würde mal fachartikel lesen und nicht nur benchmarks angucken
Dann verlink doch mal einer dieser Fachartikel.....
ATI bietet 2,4 und 6xMSAA.
nV bietet mit dem G80 2,4 und 8xMSAA (und dazu noch die CSAA-Modi).
Wo also bietet ATI jetzt das bessere "normal" AA?
Man muss sehen wie schleppend sich die 8800er verkaufen, viele Leute warten auf die erste leistungsfähige DX10 Karte.
Wo verkauft sich der G80 denn schleppend?
Dann verlink doch mal einer dieser Fachartikel.....
ATI bietet 2,4 und 6xMSAA.
nV bietet mit dem G80 2,4 und 8xMSAA (und dazu noch die CSAA-Modi).
ich rede von normalem AA,nicht irgendwelche superduper Modi,die sich eh keiner in akt. games leisten kann.
Lawmachine79
2007-04-06, 20:47:45
Wo verkauft sich der G80 denn schleppend?
Frag ich mich auch, wenn ich mir die Verfügbarkeit ansehe...
Hauwech
2007-04-06, 20:58:04
Der R600 kommt nicht zu spät, dass er aber spät kommt ist absolut richtig,- und ich warte auch schon lange drauf.
Dies wird aber der Sache nichts anhaben können, da es momentan noch keine D3D10 Games gibt, und diese werden wohl erst Anfang Juli/ (frühestens Juni)kommen. Da könnte die "Verspätheit" des R600 gar etwas ausmachen, da man besser und weiter optimieren konnte als beim G80. Der G80 ist sicherlich enorm gut, nur wollte NV den Markt damit sättigen, obwohl noch kein Bedarf war. Ähnlich mit SM3.0 Karten wie 6600 / 6800 und Co.
Ati wollte sicherlich auch den R600 "früher" bringen, da hat aber wohl AMD dies zu verhindern gewusst. In der Zwischenzeit wurde optimiert und die Taktraten nach oben( >=850 Mhz) geschraubt. Welche den Takt nicht schaffen werden als XT (wenige) und die anderen als XL verkloppt.
Somit wird der Abstand zum G80 größer ausfallen als es noch im Jänner/ Februar-MÄRZ GEPLANT war.
Der R600 wird ein komplett überdachter und ausgereifter GPU Kern werden mit gar einigen Schmankern als Zusatz (nicht nur der Realtek Sound)
Die Verspätung ist wohl eher ein Fluch als ein Segen und ATI/AMD wäre blöd wenn sie die Zeit nicht für Optimierungen zumindest der Treiber nutzen würden.
Von einer "Marktsättigung" kann man bei HighPrice Modellen wohl kaum sprechen. Wäre ATI/AMD entsprechend früher rausgekommen, sähe es mit der "bösen" Marktsättigung seitens Nvidia wohl ein wenig anders aus. Mit den Verspätungen und vielleicht sogar durch den Informationsmangel darf sich ATI/AMD das selbst zuschreiben.
Den "Bedarf" nach D3D10 kann ich anhand von Patches und Pfaden, die imho auch nicht viel mehr als ein bisschen EyeCandy bieten, nicht wirklich erkennen als das der R600 dieses Jahr da großartig was ändern würde.
Die Story mit SM3.0 kennen wir und auch das darf sich ATI selbst zuschreiben.
Dieses "Optimieren" dürfte wohl eher an einem in Fahrt kommenden 80nm Prozess und besseren Yields liegen und nicht an etlichen Respins die jeweils richtig Kohle kosten. Das gleiche gilt für Nvidia und die erwartete Ultra. Planen kann man vieles und Taktraten sind auch nicht immer alles. Wie groß der Abstand sein wird, werden wir bei Launch und "vernünftigen" Tests sehen.
Der R600 wird genauso überdacht und ausgereift sein wie der G80 nur der Ansatz ist jeweils anders und entsprechende Designentscheidungen sowie deren Auswirkungen gehen damit einher.
Welche sonstigen Schmankerln sollen es denn sein?
dargo
2007-04-06, 21:16:42
nV bietet mit dem G80 2,4 und 8xMSAA (und dazu noch die CSAA-Modi).
Die Hybridmodis nicht vergessen. :)
dargo
2007-04-06, 21:20:52
Dargo weiß noch nichtmal das ati immernoch das klar bessere normal AA hat .
ich würde mal fachartikel lesen und nicht nur benchmarks angucken
Ja genau, und das AF ist auch besser bei ATI. :D
Ich hatte eine R9700Pro, R9800Pro, X800XL, X1800XL und X1900XT. Sorry, aber ich sehe keinen Unterschied beim Einsatz von MSAA zwischen den genannten Karten und dem G80. ;)
ich rede von normalem AA,nicht irgendwelche superduper Modi,die sich eh keiner in akt. games leisten kann.
Hast du diese superduper Modis (:D) überhaupt schon gesehen? Komisch, dass ich noch relativ viele Spiele mit 8x-16xS flüßig um die 60fps spielen kann. Das wären unter anderem NfS: Most Wanted, NfS: Carbon, Battlefield 2 usw. Dass bei TDU die Leistung für SSAA nicht mehr reicht erklärt sich von selbst.
Achja, habe ich schon erwähnt, dass für Call of Duty 2 selbst 16xQ-CSAA in 1280x1024 überhaupt kein Problem für eine G8800GTS ist? Um die 40-60fps bewegt man sich da. ;)
ich rede von normalem AA,nicht irgendwelche superduper Modi,die sich eh keiner in akt. games leisten kann.
Was laberst du? CSAA läuft selbst in den neusten Spielen.
Und allein das 8xMSAA ist definitiv besser als jegliches AA auf irgendeiner kaufbaren ATi-Hardware.
Spasstiger
2007-04-06, 21:30:24
ich rede von normalem AA,nicht irgendwelche superduper Modi,die sich eh keiner in akt. games leisten kann.
Ich wette, dass eine GeForce 8800 GTX in den allermeisten Spielen mit 8xMSAA schneller ist und eine bessere Bildqualität aufweist als eine X1950 XTX mit 6xMSAA.
Ich wette, dass eine GeForce 8800 GTX in den allermeisten Spielen mit 8xMSAA schneller ist und eine bessere Bildqualität aufweist als eine X1950 XTX mit 6xMSAA.
Das allermeiste kannst du getrost mit allen ersetzen.
dargo
2007-04-06, 21:36:15
Das allermeiste kannst du getrost mit allen ersetzen.
Naja, der Vergleich passt aber auch etwas schlecht. Ich wüßte nicht wo man eine G8800GTX für 260€ bekommt. :D
crux2005
2007-04-06, 22:29:52
Dass bei TDU die Leistung für SSAA nicht mehr reicht erklärt sich von selbst.
=) also für mich ich selbst TDU spielbar wenn ich 4xS benutze
Was laberst du? CSAA läuft selbst in den neusten Spielen.
Und allein das 8xMSAA ist definitiv besser als jegliches AA auf irgendeiner kaufbaren ATi-Hardware.
nicht wirklich,ATI hat immer noch AA mit gedrehtem Muster,was viel besser ausschaut.
Aber hey,NV Leute haben ja schon bei nv30 gesagt,dass nv die beste Bildquali hat
ShadowXX
2007-04-07, 01:05:03
=) also für mich ich selbst TDU spielbar wenn ich 4xS benutze
Da lohnt es sich dann aber eher TSAA bei 4xMSAA dazuzuschalten....
nicht wirklich,ATI hat immer noch AA mit gedrehtem Muster,was viel besser ausschaut.
Aber hey,NV Leute haben ja schon bei nv30 gesagt,dass nv die beste Bildquali hat
Ähmmm....auch der G80 (und auch schon nv40 und G70/71) hat ein gedrehtes (bzw. sparsed) Muster.
(Ergänzend sollte hinzugefügt werden, das auch der nv30 bei 2xMSAA ein gedrehtes Muster hat).
Wovon du redest sind die SuperSampling Muster....die sind tatsächlich nur orderd Grid, aber dafür bietet ATI erst gar kein SuperSampling als Auswahl.
P.S.
sorry für Doppelpost
Naja ich glaube es war eher auf das fehlende Gamma AA angespielt worden was ja erst mit G70 kam, wobei ich ehrlich sagen muss das mir da beim direkten Vergleich nicht so ins Auge gefallen ist, aber wenn man den Unterschied 4xMSAA vs 4xMSAA gamma korrekt gesucht hat, wurde man auch fündig (HL2 sieht mans deutlich an den Überlandleitungen glaube ich).
Die CSAA Modi sind halt auf Bildern schwer als "nützlich" zu verkaufen (einige meinen ja "da franst was aus"), aber wenn mans erstmal flüssig gesehen hat, sieht 4xAA alt aus ;)
nicht wirklich,ATI hat immer noch AA mit gedrehtem Muster,was viel besser ausschaut.
Aber hey,NV Leute haben ja schon bei nv30 gesagt,dass nv die beste Bildquali hatSeit NV40 gibt es MSAA nur noch in der Rotated-Grid-Geschmacksrichtung. Das 2x und 4x AA bei G80 ist gleichwertig mit den entsprechenden Modi auf ATI-Karten. Dazu kommt noch das 8x MSAA, sowie die CSAA-Modi und zusätzlich noch die MSAA/SSAA-Hybridmodi.
Wo ATI da vorne liegen soll, musst du mir mal erklären. Das absolute Gegenteil ist der Fall. G80 ist den aktuellen ATI-Karten in dieser Hinsicht haushoch überlegen.
Ailuros
2007-04-07, 10:54:26
Das Gamma-Zeug haengt zu stark vom Bildschirm selber und den benutzten Gamma-settings ab, dass es eher schwer wird damit einen Punkt zu erreichen. Mir persoenlich brachte stets das Zeug fast nichts, da ich schon immer auf allen GPUs mich hinsetze und mir das Zeug zu meinem Geschmack anpasse.
Ich kann mir schwer vorstellen dass auf G8x nicht um ein sparse Muster handelt; bei 4x koennte man wohl doch noch theoretisch um einen festen Winkel die Samplepositionen verdrehen, aber wenn sich jemand die Samplepositionen von 8x sparse auf G80 ansieht entfaellt die These wohl sofort.
Was jetzt die hybriden modi betrifft, sind die meisten modi bis zu 16xS nutzvoll mit Ausnahme von 32xS das zu viele Resourcen verschwendet und mit der beschissenen Sampleposition nicht viel besser aussieht als 16xS. Das letztere kann man in Spielen wie UT2k4 durchaus benutzen bis zu 1600*1200; wuerde aber das Spiel eine hoehere 4:3 Aufloesung unterstuetzen waere man mit einfachem 4xMSAA und einer um einiges hoeheren Aufloesung besser angelegt.
Der einzige Vorteil in meinem Buch den die hybriden modi bringen ist die negative LOD Versetzung welche sich auf die Texturschaerfe auswirkt. Alpha test aliasing wird effektiv durch Transparenz-AA geregelt, bei sonstigen Nebeneffekten wie "shimmering" oder moire Zeug schaltet man gefaelligst jegliche oede Optimierung ab und fuer jegliches shader aliasing muss man aber verdammt in Aufloesung durch den Bildschirm begrenzt sein dass der Einsatz eines hybriden modi erstmal Sinn macht, denn sonst reicht die Leistung nicht mehr aus. Das soll jetzt nicht heissen dass ich persoenlich nicht sehr froh bin dass ich die hybriden modi wieder benutzen kann, aber ich versuche das Ganze lediglich auf einen nuechternen Standpunkt zu bringen.
So und jetzt zum Thema R600: ganz im Gegenteil zu dem was manche hier glauben ich haette mich vor einem R600-Kauf auf keinen Fall zurueckgehalten wenn das Ding zumindest zeitgleich mit G80 angekommen waere. Die letzte Radeon die ich mir bei ihrer Vorstellung geschnappt habe war die 9700PRO.
Das mit dem angeblichen D3D10 Zeug ist ebenso fuer die Tonne; ich hab mir die G80 nur geholt weil mich erstens der Technologie-Freak in mir zu stark gejuckt hat und zweitens lagen Spiele wie Oblivion in meiner Schublade, denn die vorige 7800GTX konnte bei bestem Willen nicht mit dem Ding in einer anstaendigen Aufloesung fertig werden (mit mittleren settings am Rand der Spielbarkeit in 1280*960). Jetzt hatte ich natuerlich die Chance dieses und andere Spiele fertigzuspielen und wenn dann endlich wahre D3D10 Spiele in der Zukunft ankommen, ist die G80 wohl nicht besonders schneller als ein IGP der Zukunft.
Entschuldigungen? Nichts dergleichen. Jeder ruestet auf wenn er fuehlt dass er es wirklich braucht. Fragt jetzt jemand ob ein X1950XTX Besitzer unbedingt eine G80 braucht koennte man unter Umstaenden locker nein sagen; gleiches gilt dann aber auch fuer R600, wobei man in diesem Fall auch auf den R700-Refresh warten koennte.
Langes Geblubber kurz: es gibt keine einfache Formel wo 1+1=2 fuer solche Sachen. Es spielen viel zu viele Faktoren meistens mit und natuerlich gibt es auf beiden Seiten sowohl Vor- als auch Nachteile. Der groesste Nachteil des R600 ist IMHLO seine zu grosse Verspaetung. Wenn man so wie ich einen analogen Aufruestungs-Zyklus hat, liess mir ATI keine besonders grosse Auswahl. Ja ich haette warten koennen, aber die Unterschiede sind am Ende nicht so gross dass sie mich dazu ueberreden koennten.
Und dieses soll auch keinen zu einem bestimmten Kauf ueberreden. Wer bis jetzt noch nicht eine high end D3D10 GPU hat, kann die relative kurze Zeit bis zum R600 Launch noch abwarten.
Leonidas
2007-04-07, 14:36:40
Das problematische an dem Erscheinungstermin ist imho, dass Ati/AMD die Karten gegen Sommer auf den Markt bringt. Ich weiß nicht, ob man das auf den Weltmarkt übertragen kann, aber in meinem Bekanntenkreis rüstet fast niemand zum spielen seinen PC im Sommer auf, weil sie einfach mehr Bock auf Schwimmbad und Grillen etc haben. Und es macht einfach keinen Sinn 500€+ für ne Graka auszugeben, wenn die die meiste Zeit nur vor sich hinstaubt. Und im Herbst(zur Aufrüstzeit) kommt dann wohl schon der G90, welcher wohl wieder ein Stück schneller sein wird.
Kennt jmd ne Tabelle, wo die Graka-Verkäufe über die verschiedenen Monate hinweg erkenntlich sind?
Von der Seite des Konsumentn her mag das richtig sein. Aber die Hersteller brauchen auch ihre Vorlaufzeit - und so gesehen ist eine Sommerverfügbarkeit gerade für Amerika sehr perfekt, weil dort die Nachrüstsaison im frühen Herbst steigt, wenn die PCs der Schüler und Studenten aufgerüstet oder grunderneuert werden. Um in diesem Geschäft mitmischen zu können, nützt es aber nichts, einen Chip irgendwann im Herbst zu launchen - nein, der muß spätestens im Sommer raus sein, damit im Frühherbst breitestete Lieferfähigkeit gegeben ist. D.h. selbst ein Hardlaunch mit geringen Stückzahlen reicht hier nicht aus, weil man dann letztlich wieder nur an die Enthusiasten (die sowieso kommen) verkauft und nicht das Geschäft mit der breiten Masse macht.
Nicht umsonst gilt die Computex im Juni als die eigentlich wichtigere Messe für Fachbesucher, weil sich dort die Einkäufer darüber informieren, was für das kommende Geschäft an Hardware zu haben ist.
Dies bedeutet nicht, das ständige Verzögerungen gut sind. Aber es bedeutet, das für ATI rein geschäftlich der Zug nicht wirklich abgefahren ist, wenn die neuen Karten erst im Sommer lieferbar werden.
http://img177.imageshack.us/img177/4020/atichipszx8.png
?
(Quelle) (http://hardware.mydrivers.com/2/80/80624_12.htm)
(Anmerkung: 256Bit wurde von Google mit CMOS übersetzt, Xiancun = memory)
Da sie den Prozeß mit "80/65 nm" bei allen ATI-Chips angegeben haben, heist das für mich, das sie es nicht wissen, sondern vermuten. Sprich, das diese Aufstellung nicht auf geleakten Fakten basiert, sondern das vorhandene Wissen und die vorhandenen Vermutungen zusammenfasst - ähnlich dem entsprechenden 3DC-Artikel.
nicht wirklich,ATI hat immer noch AA mit gedrehtem Muster,was viel besser ausschaut.
Aber hey,NV Leute haben ja schon bei nv30 gesagt,dass nv die beste Bildquali hat
nVIDIA hat schon seit 3 Jahren kein ordered Grid mehr als Samplemuster für das AA. Aber Hauptsache blöd daher labern.
Aber hey,NV Leute haben ja schon bei nv30 gesagt,dass nv die beste Bildquali hat
Der anisotropische Filter war auch besser.
Black-Scorpion
2007-04-07, 15:35:44
Ich glaube kaum das der Filter etwas mit den Tropen zu tun hat. ;)
Mr. Lolman
2007-04-07, 18:58:36
bei 4x koennte man wohl doch noch theoretisch um einen festen Winkel die Samplepositionen verdrehen,
Kann man nicht, zumindest nicht allzu einfach. (Pixel drehen, rendern, zurückdrehen, nächsten Pixel drehen, rendern, zurückdrehen,...)
Dass ATis AA tatsächlich in manchen Situationen leicht besser wirken kann, hab ich schonmal mit Screenshots von 3dmark03/05 und HL² gezeigt. Das kann natürlich auch Zufall sein, aber Pix, die gegenteiliges zeigen, sind mir bisher nicht untergekommen.
Der anisotropische Filter war auch besser.
Aber nur solang im Treiber noch keine Optimierungen drinnen waren ;)
Aber nur solang im Treiber noch keine Optimierungen drinnen waren ;)
Jo, dann hatte man die Qual der Wahl. Winkelabhängigkeit oder Brilinear X-D
Kann auch nur der Treiber sein, denn AC97/HDA-Chips sind untereinander kompatibel.
Kannst du mir sagen woher Hartware die Info hat, daß es ein Realtek Chip ist?
Ich seh ihn nicht.
w0mbat
2007-04-07, 22:20:27
Von den angeblichen ATI HDMI Soundtreibern auf der Realtek Homepage. AMD sagt aber auf den Slides zum R600 nicht von wem der Soundchip ist.
Von den angeblichen ATI HDMI Soundtreibern auf der Realtek Homepage. AMD sagt aber auf den Slides zum R600 nicht von wem der Soundchip ist.
Hast du nen Link dazu?
Edit: der Screen ist ja von Realtek.
horn 12
2007-04-08, 09:32:35
Amd_Ati wird für nächste Woche einige offizielle Infos zum R600 bereithalten, im Gegenzug zu der Vorstellung der NV Mainstream umd vor allem der neunen Topkarte NV-8800 Ultra.
Hoffe zumindest dass am 23./24 April auch einige Benchmarks durchsickern, denn da ist es nicht mehr weit bis zum Launch, oder ATI überrascht uns und dies wird laut obrigem Datum Techday und Launch gemeinsam:confused:
Frohe Ostern allseits!:biggrin:
Ronny145
2007-04-08, 09:53:43
Amd_Ati wird für nächste Woche einige offizielle Infos zum R600 bereithalten, im Gegenzug zu der Vorstellung der NV Mainstream umd vor allem der neunen Topkarte NV-8800 Ultra.
Hoffe zumindest dass am 23./24 April auch einige Benchmarks durchsickern, denn da ist es nicht mehr weit bis zum Launch, oder ATI überrascht uns und dies wird laut obrigem Datum Techday und Launch gemeinsam:confused:
Frohe Ostern allseits!:biggrin:
Aus welcher Quelle stammt das?
Aus welcher Quelle stammt das?Meinst du die Frage ernst? Lass dir mal von der Suchfunktion die anderen Postings von Horn12 zeigen. Das sollte deine Frage beantworten. Er ist halt kreativ. ;)
Ja und das gleiche noch nichtmal abgeändert postert im HWLuxx Forum unter Berni_Ati. Der nervt mit seiner rosa Brille
Ronny145
2007-04-08, 10:16:04
Ja und das gleiche noch nichtmal abgeändert postert im HWLuxx Forum unter Berni_Ati. Der nervt mit seiner rosa Brille
Dann ist das richtig lustig: "Kann die Quelle nicht preisgeben"
http://www.forumdeluxx.de/forum/showpost.php?p=5849569&postcount=941
Aber dort hat ja eh jeder eine Quelle, lachhaft.
horn 12
2007-04-08, 11:25:33
Sorry, aber ihr werdet euch ALLE noch wundern.
Sage nur X1900 AGP und Konsorten.
Sorry, aber ihr werdet euch ALLE noch wundern.Ja, alles klar. R600 wird ein G80-Killer und ich habe meine Ruhe. ;)
Achso, natürlich kommt auch eine R600-Version für ISA. ATI war so clever und konnte ein Tseng Labs ET4000 PCB dafür verwenden.
drmaniac
2007-04-08, 12:02:11
Tseng Labs ET4000.
Na super, jetzt habe ich Hardwarevergangenheitsweh ;D
Tseng Labs ET4000.
Na super, jetzt habe ich Hardwarevergangenheitsweh ;DDer gute Spasstiger hat in einem anderen Thread sogar ein Bild davon gepostet.
http://img125.imageshack.us/img125/1450/radeonx1700xt512isa3vm.th.jpg
Leider ist nur noch das Thumbnail verfügbar. Das echte Bild hat Imageshack wohl gelöscht, wahrscheinlich auf Druck von ATI. ;D
w0mbat
2007-04-09, 15:51:31
Neue R600 Techdemo:
http://img404.imageshack.us/img404/3843/r600renderpf0.jpg
dildo4u
2007-04-09, 15:53:11
Sieht nach Call of Juarez mit D3D10 Patch aus.
w0mbat
2007-04-09, 15:55:58
Ja, vor allem das Haus im Hintergrund.
horn 12
2007-04-09, 16:25:17
Hui Hui!
Falls dies wirklich Call if Juarez sein sollte mit D3D10 Patch, Wahnsinn.
Da beschert uns AMD ja wirklich 2 Top Spiele mit noch nie dagewesener Grafik. Was machte NV in der Zwischenzeit? Nicht mal ansatzweise haben sie versucht Software für ihre Graka zu bringen/ patchen.
Dies dürfte wohl auch ein weiterer Pluspunkt für A/A sein, den die Kunden nicht zu unterschätzen wissen, vor allem bei DER Grafik die geboten wird.
san.salvador
2007-04-09, 16:30:06
Also ich werde nicht auf den R600 warten, nur weil die Grünen einem Spiel (das mich jetzt auch nicht so richtig interessiert) einen Dx10-Hut aufgesetzt haben.
Und wer sagt, dass das am Ende nicht auch auf einem G80 läuft?
w0mbat
2007-04-09, 16:35:00
Es sollte auch auf dem G80 laufen. Ist ja nur eine Art Techdemo.
[MK2]Mythos
2007-04-09, 16:35:29
Sieht nach Call of Juarez mit D3D10 Patch aus.
Hab ich auch direkt gedacht. Der Screen macht auf jedenfall Lust auf mehr! :)
Following the press conference where AMD formally introduced us to the 690 chipset, was a fairly lengthy Q&A session, which we captured in it’s entirety. Check out the video for the full, unedited version - or check out our summarized notes after the jump.
Someone asked about wattage per teraflop. In the demo we saw, about 200 watts per chip. They are working to develop a standard for wattage per teraflop. Talking about power consumption, going forward they can focus on power-down throughout the platform as opposed to just on the chip or cores themselves.
Question about doing things about what AMD and ATI can do now that they couldn’t do as separate companies. Why the merger?
The 690 was architected in a combined environment. With a tighter cooperation with the R&D teams, you find a level of integration between the chips now. Power management is going to be better, partitioning across the HT bus. In late 2007, you will start seeing exactly what is being talked about. Fantastic batter life in a notebook for example, and in 2009, Fusion. That is what it’s all about, getting everything on the same piece of silicon.
Benchmark of R600, looks to be 260 watts. Can anything be done to bring that down as time goes on? That is fairly high consumption.
With the next version of the R600-based cards, you will see power go down, while performance goes up. Another result of the two companies coming together. Gamers want performance at any cost, and AMD is focused on optimizing dissipation of that thermal energy. 30db noise level coming on multiple CPU and GPU in the near future.
When is the R600 going to hit retail, and what happened?
Moving to 65 nm chips, scheduling was just a bit off. Rather than going with a limited deployment with a single point launch, they chose to delay by a couple of weeks to have a full line launch. It isn’t a silicon problem, it was an internal decision made to allow for a full launch. They will still be available in the first half of 2007.
...
http://www.gearlive.com/news/article/159-amd-press-qa
no_surrender
2007-04-09, 18:03:40
Neue R600 Techdemo:
http://img404.imageshack.us/img404/3843/r600renderpf0.jpg
geil, ich will entlich den R600:(
K4mPFwUr$t
2007-04-09, 18:07:35
so toll schaut das pic nicht aus. würde mal frech behaupten das bekommt man auch bei oblivion zu sehen ;)
bei dem grass ist nur eine textur verwendet wurden, toll das ist nichts neues und was viel leistung kostet. auch die dinge im hintergrund sehen nicht so weltüberragend aus.
sry wenn ich euch die hoffnung nehme ;D
Hui Hui!
Falls dies wirklich Call if Juarez sein sollte mit D3D10 Patch, Wahnsinn.
Da beschert uns AMD ja wirklich 2 Top Spiele mit noch nie dagewesener Grafik. Was machte NV in der Zwischenzeit? Nicht mal ansatzweise haben sie versucht Software für ihre Graka zu bringen/ patchen.
Dies dürfte wohl auch ein weiterer Pluspunkt für A/A sein, den die Kunden nicht zu unterschätzen wissen, vor allem bei DER Grafik die geboten wird.
Rofl, seit wann machen GPU Hersteller Content Patches für Spiele? Da war der gerauchte Tee wohl schlecht... AMD hat sicher ordentlich Geld hingelegt das man einen D3D Patch für die Spiele macht, schön das alle G80 Besitzer auch davon profitieren. Oder am ende stellt sich heraus das die Spiele nur gebundelt sind und der Patch so oder so wäre erschienen.
Also kein "Pluspunkt" warum auch, soll ich mir n R600 jetzt für die Games kaufen ^^
[MK2]Mythos
2007-04-09, 18:32:48
so toll schaut das pic nicht aus. würde mal frech behaupten das bekommt man auch bei oblivion zu sehen ;)
bei dem grass ist nur eine textur verwendet wurden, toll das ist nichts neues und was viel leistung kostet. auch die dinge im hintergrund sehen nicht so weltüberragend aus.
sry wenn ich euch die hoffnung nehme ;D
Und ich würde mal frech behaupten das du Tomaten auf den Augen hast, das Bild sieht um Längen besser aus, als das, was ich von COJ bisher kenne.
san.salvador
2007-04-09, 18:36:40
Seh ich was anderes als ihr? Der Screenshot den ich hab ist 450x296 groß, darüber kann man doch kein Urteil fällen.
Oder habt ihr das selbe in groß?
Hauwech
2007-04-09, 18:37:24
Hui Hui!
Falls dies wirklich Call if Juarez sein sollte mit D3D10 Patch, Wahnsinn.
Da beschert uns AMD ja wirklich 2 Top Spiele mit noch nie dagewesener Grafik. Was machte NV in der Zwischenzeit? Nicht mal ansatzweise haben sie versucht Software für ihre Graka zu bringen/ patchen.
Dies dürfte wohl auch ein weiterer Pluspunkt für A/A sein, den die Kunden nicht zu unterschätzen wissen, vor allem bei DER Grafik die geboten wird.
Hmm ein Patch der als Techdemo auf einer nicht kaufbaren Karte gezeigt wird, ist nun wirklich nicht DER Grund für einen weiteren(*) Pluspunkt für den R600.
Ich gehe mal nicht davon aus, dass der Patch nur für ATI Karten kommt womit dieser Pluspunkt auch wegfällt.
*Welche weiteren Pluspunkte hat denn der R600? Dazu noch die nichtbeantwortete Frage aus einem früheren Posting an dich, welche weiteren Schmankerln, neben dem Soundchip, hat der R600 denn noch?
dargo
2007-04-09, 18:42:02
Seh ich was anderes als ihr? Der Screenshot den ich hab ist 450x296 groß, darüber kann man doch kein Urteil fällen.
Oder habt ihr das selbe in groß?
Das frage ich mich gerade auch was die alle an dem kleinen Bild so toll finden? :|
Das einzige was ich erkennen kann ist, dass die Felsen detailierter sind, das wars dann aber auch schon.
*Welche weiteren Pluspunkte hat denn der R600? Dazu noch die nichtbeantwortete Frage aus einem früheren Posting an dich, welche weiteren Schmankerln, neben dem Soundchip, hat der R600 denn noch?
Das is kein echter "Soundchip" wie auf ner Soundkarte, das nur dazu da den Sound aufs HDMI Käbelchen zu schleifen.
Super Grobi
2007-04-09, 18:51:15
Ahoi,
ist das richtig, das es den R600 nur als "langes Vieh" a la 8800GTX geben wird?
SG
reunion
2007-04-09, 19:06:55
*Welche weiteren Pluspunkte hat denn der R600? Dazu noch die nichtbeantwortete Frage aus einem früheren Posting an dich, welche weiteren Schmankerln, neben dem Soundchip, hat der R600 denn noch?
Es sollte klar sein, dass diese Fragen niemand ohne Insiderwissen und damit NDA heute beantworten kann/darf.
Ahoi,
ist das richtig, das es den R600 nur als "langes Vieh" a la 8800GTX geben wird?
SG
Wenn du mit "langes Vieh" die Platinenlänge meist, dann nein, R600 wird nicht länger sein als einen X1800/X1900.
Super Grobi
2007-04-09, 20:00:32
(...)
Wenn du mit "langes Vieh" die Platinenlänge meist, dann nein, R600 wird nicht länger sein als einen X1800/X1900.
Ja, ich meine die länger der Karte. Hatte irgentwo gelesen, daß das Teil so ein langes Teil wird, wie die 8800GTX. Zugeben, das ist schon etwas her. Deshalb hab ich einfach heute nochmal gefragt, da es ja mehr Infos zu der Karte gibt, als "damals".
Na da bin ich mal gespannt...
Gruss und dank
SG
Ja, ich meine die länger der Karte. Hatte irgentwo gelesen, daß das Teil so ein langes Teil wird, wie die 8800GTX. Zugeben, das ist schon etwas her. Deshalb hab ich einfach heute nochmal gefragt, da es ja mehr Infos zu der Karte gibt, als "damals".
Na da bin ich mal gespannt...
Gruss und dank
SG
Es ist eigentlich noch nicht sicher, wie lang die Karte wird. Fakt ist, dass es eine vollwertige Karte mit überlangem Kühler gab, die sogenannte OEM Karte. Dann gab es ein paar Bilder mit einem kürzeren Kühler, allerdings war das afaik keine lauffähige Karte, sondern so ne Art Konzeptstudie . Die PCB Länge dürfte jedoch feststehen, die ist so lang wie bei einer X1800. Nur der monströse Kühler ragte halt weit über die Karte hinaus und verlängerte sie so.
Super Grobi
2007-04-09, 20:12:41
Es ist eigentlich noch nicht sicher, wie lang die Karte wird. Fakt ist, dass es eine vollwertige Karte mit überlangem Kühler gab, die sogenannte OEM Karte. Dann gab es ein paar Bilder mit einem kürzeren Kühler, allerdings war das afaik keine lauffähige Karte, sondern so ne Art Konzeptstudie . Die PCB Länge dürfte jedoch feststehen, die ist so lang wie bei einer X1800. Nur der monströse Kühler ragte halt weit über die Karte hinaus und verlängerte sie so.
Hi,
ja das meine ich ja. Was hilft es mir, wenn das PCB kurz ist, aber der Kühler noch ewig lang überlappt.
*grrr* Also doch ein "langes Vieh"
Na mal abwarten bis es die Karte gibt. Dann gibts hoffentlich auch schöne Vergleichsbilder mit einer X1900XT oder sonst was.
Gruss
SG
Spasstiger
2007-04-09, 20:13:37
Ahoi,
ist das richtig, das es den R600 nur als "langes Vieh" a la 8800GTX geben wird?
SG
Die Platine wird 9 Zoll lang sein, also knapp 23 cm. Aber wahrscheinlich wird der Kühler etwas überstehen.
Ich frage mich, warum die nicht einfach mal einen nach allen Seiten überstehenden Kühler mit einem 120-mm-Lüfter verwenden. Den Platz sollte man eigentlich in jedem High-End-Rechner haben und der große Lüfter ermöglicht eine deutlich leisere Kühlung.
Hi,
ja das meine ich ja. Was hilft es mir, wenn das PCB kurz ist, aber der Kühler noch ewig lang überlappt.
*grrr* Also doch ein "langes Vieh"
Na mal abwarten bis es die Karte gibt. Dann gibts hoffentlich auch schöne Vergleichsbilder mit einer X1900XT oder sonst was.
Gruss
SG
Die sollen die Karte einfach mit ner Triple Slot Kühlung ausstatten, dann benötigt man auch keine überlangen Kühler.
san.salvador
2007-04-09, 20:32:46
Die sollen die Karte einfach mit ner Triple Slot Kühlung ausstatten, dann benötigt man auch keine überlangen Kühler.
Bei so einem "Hängebauchschwein" hätte ich aber Angst, dass sie mir unmotiviert auf die X-Fi kracht. :D
Lieber nicht.
dargo
2007-04-09, 20:34:08
Ich frage mich, warum die nicht einfach mal einen nach allen Seiten überstehenden Kühler mit einem 120-mm-Lüfter verwenden. Den Platz sollte man eigentlich in jedem High-End-Rechner haben und der große Lüfter ermöglicht eine deutlich leisere Kühlung.
Ob das so vorteilhaft wäre?
Die ganze Wärme würde dann im Gehäuse bleiben.
reunion
2007-04-09, 20:34:35
*grrr* Also doch ein "langes Vieh"
Gruss
SG
Blödsinn, es gab schon längst Bilder der Retailversion von Tweaktown, inklusive Platinendesign, etc. die allerdings wohl auf druck von AMD wieder entfernt wurden. Hier welche, die ich retten konnte:
http://img401.imageshack.us/img401/9380/retailr600wf6.th.jpg (http://img401.imageshack.us/my.php?image=retailr600wf6.jpg)
http://img508.imageshack.us/img508/2363/r600dragonschemayz5.th.jpg (http://img508.imageshack.us/my.php?image=r600dragonschemayz5.jpg)
Da steht nichts über. Die OEM-Version interessiert doch niemanden. Es gab fast jede Karte auch mit "full-size" für Kunden wie Apple und Dell im OEM-Markt.
Die Platine wird 9 Zoll lang sein, also knapp 23 cm.
9.5".
san.salvador
2007-04-09, 20:41:22
Für mich sieht das schon recht lang aus.
€dit:
Vielleicht hilfts beim Vergleich:
http://img138.imageshack.us/img138/7217/vomparaaork1.jpg
leider fehlt die GTS mit 23cm, die GTX hat auf jeden Fall 26,7cm.
reunion
2007-04-09, 20:47:34
Die Platine ist 9.5" od. ~24cm lang, das ist Fakt. Auch wenn man es auf dem Bild durch die starke Komprimierung kaum erkennen kann.
Die Platine ist 9.5" od. ~24cm lang, das ist Fakt.
Bitte einen Link zur AMD-Produktseite, um dieses "Fakt" zu stützen.
Spasstiger
2007-04-09, 20:54:47
Ob das so vorteilhaft wäre?
Die ganze Wärme würde dann im Gehäuse bleiben.
Wie kommst du darauf? Man kann doch das derzeit gängige Kühlerkonzept genauso umsetzen wie jetzt, nur halt mit einem 120er-Lüfter. Der Luftkanal muss natürlich zum Ende hin enger werden.
reunion
2007-04-09, 20:58:37
Bitte einen Link zur AMD-Produktseite, um dieses "Fakt" zu stützen.
Es gab dieses Bild des XTX-Boards auch höher aufgelöst, wo man die Maße ablesen konnte, auch wurde das von unzähligen Quellen quer durch die Bank nicht nur einmal bestätigt. Wenn dir das nicht reicht, wirst du auf den Launch warten müssen.
dargo
2007-04-09, 21:00:24
Wie kommst du darauf? Man kann doch das derzeit gängige Kühlerkonzept genauso umsetzen wie jetzt, nur halt mit einem 120er-Lüfter. Der Luftkanal muss natürlich zum Ende hin enger werden.
Hä? Das PCB ist doch in der Höhe etwa 80mm. Wie willst du da nach der Norm einen 120mm Lüfter unterbringen? Das hatte ich nämlich vorhin gar nicht bedacht. Im Prinzip reicht ein 80mm Lüfter aus. Man muss nur ein vernünftiges Lager verwenden.
Spasstiger
2007-04-09, 22:39:48
Wie willst du da nach der Norm einen 120mm Lüfter unterbringen?
Deshalb hab ich ja auch "nach allen Seiten überstehend" geschrieben. Den Platz dafür hätten wohl die meisten im Gehäuse außer bei evtl. verbauten Lüftern in den Seitenwand.
Die Kühlung ist mir relativ egal. Die Karte wird in die Wakü integriert und fertig ist die Laube. Streitet ihr euch über eure Lüfter;-)
Noch laaaange 2 Wochen, dann wissen wir hoffentlich mehr...
Super Grobi
2007-04-09, 22:56:14
Deshalb hab ich ja auch "nach allen Seiten überstehend" geschrieben. Den Platz dafür hätten wohl die meisten im Gehäuse außer bei evtl. verbauten Lüftern in den Seitenwand.
Die haben halt pech ;). Frag doch auch keiner, ob man hinter dem PCIe Steckplatz noch 1,30 Meter frei hat, weil die Karte "etwas" länger geraten ist a la 8800 GTX
SG
K4mPFwUr$t
2007-04-09, 23:33:30
@[MK2]Mythos
der fels schaut nett aus, nur das dahinter ist doch nicht das gelbe vom ei. das grass ist doch nen schlechter witz. da kennt man das selbst aus 3d murks 2001SE besser ;) (die szene mit dem bach)
Spasstiger
2007-04-10, 00:54:00
@[MK2]Mythos
der fels schaut nett aus, nur das dahinter ist doch nicht das gelbe vom ei. das grass ist doch nen schlechter witz. da kennt man das selbst aus 3d murks 2001SE besser ;) (die szene mit dem bach)
Naja, darüber lässt sich streiten:
http://img404.imageshack.us/img404/3843/r600renderpf0.jpg
http://img294.imageshack.us/img294/598/3dmark2001seexe2tn5.jpg
Die hübschesten Felsen gibts bisher übrigens imo in Oblivion. Hier drei Beispiele:
http://img181.imageshack.us/img181/5927/fels2wg7.th.jpg (http://img181.imageshack.us/my.php?image=fels2wg7.jpg)http://img181.imageshack.us/img181/1382/fels1eq8.th.jpg (http://img181.imageshack.us/my.php?image=fels1eq8.jpg)http://img181.imageshack.us/img181/5187/fels3hx2.th.jpg (http://img181.imageshack.us/my.php?image=fels3hx2.jpg)
Das war übrigens von meiner Radeon 9700 bei flüssiger Framerate (30 fps und mehr). /EDIT: siehe unten
Es braucht kein DX10 für hübsche Felsen, wenn sogar die erste DX9-Gen das flüssig hinbekommt.
Bei diesen DX10-Patches werde ich das Gefühl nicht los, dass bewusst Augenwischerei betrieben wird, um DX10 Vorteile zu attestieren, die so gar nicht vorhanden sind. Damit meine ich z.B. dass bewusst höher aufgelöste Texturen verwendet werden, um eine neue Technologie besser dastehen zu lassen.
/EDIT: Halt, die Felsen-Bilder oben waren von einer GeForce 6800 und HDRR war aktiv. Bis auf das HDRR hab ich mit meiner Radeon 9700 aber bei gleichen Grafikeinstellungen gespielt (außerhalb der Siedlungen flüssig).
Man muß sich das Bild von Fudo in Bewegung vorstellen, und vualá schon hat man den Schattenwurf und Beleuchtung wie von Crysis auf dem Felsen.
w0mbat
2007-04-10, 01:22:36
DX9
http://img341.imageshack.us/img341/3917/cojoj8.jpg
seahawk
2007-04-10, 07:03:17
Wow, da zegt die R600 aber was mit DX10 geht.
Wow, da zegt die R600 aber was mit DX10 geht.Hmm, ich habe da so meine Zweifel, was die D3D10-Patches für die Spiele betrifft. Wie Spasstiger glaube ich auch eher, dass man hier und da ein paar höher aufgelöste Texturen verwendet. Also nichts, was nicht auch mit D3D9-HW möglich wäre.
Der AMD64-Patch für Far Cry war ja ähnlich.
Liszca
2007-04-10, 08:32:55
falls es nicht schon jemand entdeckt hat, bei realtek.com.tw gibts bei downloads einen "ATI HDMI Audio Device" treiber, ca 15 MB groß, damit sollte dann ja alles klar sein.
Es gab dieses Bild des XTX-Boards auch höher aufgelöst, wo man die Maße ablesen konnte, auch wurde das von unzähligen Quellen quer durch die Bank nicht nur einmal bestätigt. Wenn dir das nicht reicht, wirst du auf den Launch warten müssen.
Mir reicht das als deutliches Indiz - ein Fakt wird daraus allerdings bei weitem nicht.
Erinnere dich: ein paar Monate vor dem Launch galt es auch noch als "Fakt", dass der G80 kein US-Design ist. :)
James Ryan
2007-04-10, 10:20:12
Erinnere dich: ein paar Monate vor dem Launch galt es auch noch als "Fakt", dass der G80 kein US-Design ist. :)
Dies war von Anfang an Quatsch:
Fakt war, dass NVIDIA gesagt hat, dass sie einen US-Prozessor bringen, wenn die Zeit reif sei.
Einige "Experten" waren danach der Meinung, dass G80 keine US-GPU sei.
MfG :cool:
w0mbat
2007-04-10, 11:03:50
R600, X2900 name confirmed
http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=1
Jetzt sicher X2900 und mit Soundkarte.
Blutmaul
2007-04-10, 11:13:22
R600, X2900 name confirmed
http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=1
Jetzt sicher X2900 und mit Soundkarte.
Keine Soundkarte im hergebrachten Sinn - steht dort so.
w0mbat
2007-04-10, 11:20:28
Das war aber schon immer klar.
Edit/
R600 multimedia explained
http://www.fudzilla.com/index.php?option=com_content&task=view&id=463&Itemid=1
also amd macht es echt verdammt spannend.
ich glaube wir werden alle noch sehr überrascht sein
Spasstiger
2007-04-10, 12:02:25
also amd macht es echt verdammt spannend.
ich glaube wir werden alle noch sehr überrascht sein
Naja, ich erwarte jetzt keine Wunder.
Die Audio-Processing-Fähigkeit wird sich denke ich mal darauf beschränken, digitale Audiosignale durch den HDMI-Ausgang der Grafikkarte durchzuschleifen.
James Ryan
2007-04-10, 12:40:50
also amd macht es echt verdammt spannend.
ich glaube wir werden alle noch sehr überrascht sein
AMD bringt mich persönlich zum einschlafen...
Der R600 wird schnell, eine richtige Soundkarte wird er nicht besitzen. Bis Mitte Mai sind es noch knapp 6 Wochen, wird wirklich langweilig.
MfG :cool:
Ja langsam reichts echt.Viele wollen aufrüsten und dann diese Verspätung.Ich könnte kotzen.Will aber gerne eine X2900 und keine 8800.Deswegen werde ich noch geduld haben.ABER nicht mehr LANGE!!!!!
themk
2007-04-10, 13:00:52
Viel interessanter als dieser Audio-Funktionalitäten ist doch der Video Prozessor, der sonst auf den AIW Karten zu finden war!
Das ist ganz schön genial, wenn ihr mich fragt, denn ist es dadurch nicht z.B. möglich, Videos getrennt von 3D Full-Screen Anwendungen auf nem zweiten Bildschirm per Graka beschleunigt darzustellen?
Bei erweitertem Desktop funktioniert das mit der x1900aiw fast immer - sofern die Auflösung des Spiels der des Desktops entspricht. Prozessorlast eines Fullscreen-Videos am zweiten Moni liegt mit und ohne Spiel bei ~3% (Dungeon Siege 2 + JetAudio), was doch dafür sprechen würde, dass sich der dritte Prozessor hinzuschaltet?
Wenn ich nur wüsste, wo man in JetAudio gleich nochmal VMR9 aktiviert, dann könnt ich sichergehen dass ich das nicht aktiviert habe.
Vielleicht ist es auch möglich, Videos auf dem zweiten Monitor unabhängig von der Auflösung des ersten darzustellen -> z.B. mit dem Theater Mode, oder indem man den sekundären Monitor über oder links vom primären platziert, sodass dessen 2D-Desktop-Anzeige bei wechselnder Auflösung des ersten nicht verschoben wird.
Ja langsam reichts echt.Viele wollen aufrüsten und dann diese Verspätung.Ich könnte kotzen.Will aber gerne eine X2900 und keine 8800.Deswegen werde ich noch geduld haben.ABER nicht mehr LANGE!!!!!
Dann kauf dir jetzt eine 8800 und wenn der R600 kommt verkaufst du sie halt wieder und steigst um. Manchmal muss man halt über seinen Schatten springen können. :D
Ich schau in meine Glaskugel und: AMD/ATI machen alles richtig!
D3D10 ist noch weit.... weit... weg! :rolleyes:
Wenn der Termin diesmal gehalten wird landet AMD einen Hammer:
Quadrohr mit 3d-Kanone :tongue:
Viele überschätzen den Retailmarkt für Highend-Zeug maßlos... zwar teuer, aber marginal!
Dagegen scheint AMD/ATI erstmals einen richtigen OEM-Trumpf zu haben mit der mysteriösen OEM-R600: wenn z.B. Dell voll einsteigt (träumen schon lange vom großen Durchbruch im lukrativen gehobenem Gamermarkt WELTWEIT) und ein wahres PC-Geschoß (flüsterstill und und und) zeigt, dann flutscht der Laden!
Obendrein scheint man den R600 als "Rechenwunder" vermarkten zu können und hat entsprechende Universitäten usw. dafür interessieren können: von daher auch die OEM-Karte - die dann eben z.B. Terraflops schaufelt, anstatt mit D3D10 zu zaubern :wink:
seahawk
2007-04-10, 14:52:08
Dazu dürften auch die anderen DX10 Karten min. ebenbürtig zur Konkurrenz sein.
Dazu dürften auch die anderen DX10 Karten min. ebenbürtig zur Konkurrenz sein.
Wenn AMD - wie sollte man den nennen? - "R600-Rechner XYZ" als ordentliches moduläres Paket mit SW und verlockenden Benches schnürt, kann das ein Knüller werden!
w0mbat
2007-04-10, 15:00:18
RD790 SAM2+ Mainboard, AMD K10 Agena oder Kuma und dazu eine X2900 XTX/XL oder X2600 XT. Dann verkauft AMD drei Komponenten auf einmal.
RD790 SAM2+ Mainboard, AMD K10 Agena oder Kuma und dazu eine X2900 XTX/XL oder X2600 XT. Dann verkauft AMD drei Komponenten auf einmal.
Au ja - am besten direkt noch im Bundle verticken, gar nicht mehr einzeln. Dann wird der Markt jubeln (und sich bei intel/nvidia bedienen).
DrumDub
2007-04-10, 17:22:08
auch interessant. der 2d-teil wird wohl nicht ausgelagert:
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_name.png
unified one chips solution
unified one chips solution
United, nicht unified!
James Ryan
2007-04-10, 19:38:20
RD790 SAM2+ Mainboard, AMD K10 Agena oder Kuma und dazu eine X2900 XTX/XL oder X2600 XT. Dann verkauft AMD drei Komponenten auf einmal.
Urgs, sollte es so kommen dann Bye Bye AMD. Die AMD/ATi-Chipsätze kann man kaum gebrauchen, bieten viel zu wenig.
MfG :cool:
Black-Scorpion
2007-04-10, 19:56:19
Lieber weniger bieten was auch so funktioniert wie es soll als Sachen anbieten die man lieber nie benutzt wenn einem die Daten wichtig sind.
Sorry, aber sowas ist Blödsinn.
BvB123
2007-04-10, 20:00:12
Urgs, sollte es so kommen dann Bye Bye AMD. Die AMD/ATi-Chipsätze kann man kaum gebrauchen, bieten viel zu wenig.
MfG :cool:
z.B. ?
Botcruscher
2007-04-10, 20:26:48
Die Antwort bleibt er dir schuldig. Was der Chipsatz kann sieht man bei den DFI Boards.:rolleyes:
reunion
2007-04-10, 20:30:30
Urgs, sollte es so kommen dann Bye Bye AMD. Die AMD/ATi-Chipsätze kann man kaum gebrauchen, bieten viel zu wenig.
MfG :cool:
Volle Zustimmung. AMD wird daran zugrunde gehen, weil sie es wagen, einen neuen Chipsatz vorzustellen, der nicht mindestens 50W schluckt, eine Haufen Bugs hat, und jetzt kommt das unfassbare - nicht mit N beginnt!
[MK2]Mythos
2007-04-10, 20:52:10
Urgs, sollte es so kommen dann Bye Bye AMD. Die AMD/ATi-Chipsätze kann man kaum gebrauchen, bieten viel zu wenig.
MfG :cool:
Also manchmal solltest selbst du probieren ein klein wenig Objektivität wenigstens vorzutäuschen...
Die ATi Chipsätze standen den NVIDIA Chipsätzen bisher in nichts nach, höchstens - und das deutete Reunion ja schon an, in Sachen Stromverbrauch waren die Nforces bisher nicht zu schlagen... ;) Aber das wird wieder einmal OT hier...
K4mPFwUr$t
2007-04-10, 21:06:51
hab ich was verpasst?
ein nF4 ist weniger strom und damit verlustleistungsfreier als ein ATI chipset?
ich glaube ihr vertauscht da was und das gewaltig. das einzigste was deb ATI chips fehlt ist die erfahrung die nVidia über jahre in dem segment bekommen hat.
aber nun wieder BTT, es geht ja nicht um chipset sondern R600
laser114
2007-04-10, 21:08:19
"In Sachen Stromverbrauch nicht zu schlagen" - heißt nicht in Sachen Stromverbrauch gute Leistungen zu vollbringen. ;)
Ronny145
2007-04-10, 21:09:00
hab ich was verpasst?
ein nF4 ist weniger strom und damit verlustleistungsfreier als ein ATI chipset?
ich glaube ihr vertauscht da was und das gewaltig.
Da vertauscht keiner was, denn das hat keiner behauptet. Du hast das nur falsch verstanden.
Volle Zustimmung. AMD wird daran zugrunde gehen, weil sie es wagen, einen neuen Chipsatz vorzustellen, der nicht mindestens 50W schluckt, eine Haufen Bugs hat, und jetzt kommt das unfassbare - nicht mit N beginnt!
Volle Zustimmung. Uli wird daran zugrunde gehen, weil sie es wagen, einen neuen Chipsatz vorzustellen, der nicht mindestens 50W schluckt, eine Haufen Bugs hat, und jetzt kommt das unfassbare - nicht mit N beginnt!
Black-Scorpion
2007-04-10, 21:28:58
Nur das ULi leider gar keine Chipsätze mehr bringt.
Aber wenigstens hat NV klever eingekauft wenn sie selber schon nicht in der Lage sind Chipsätze zu bringen die nicht heizen bis zum umfallen.
The_Invisible
2007-04-10, 21:31:16
mit dem thema heizen würde ich in bezug auf r600 die klappe lieber nicht soweit aufreißen, ati hat ja gezeigt das sie es genauso gut können
mfg
Black-Scorpion
2007-04-10, 21:41:46
Wir waren bei Chipsätzen.
Und der G80 ist auch so sparsam.
laser114
2007-04-10, 21:51:43
mit dem thema heizen würde ich in bezug auf r600 die klappe lieber nicht soweit aufreißen, ati hat ja gezeigt das sie es genauso gut können
Bei Grakas ist das doch generell eher umgekehrt, zumindest beim Stromverbrauch. Wobei sich das natürlich mit jeder Serie auch ändern kann...
Und der G80 ist auch so sparsam.
Tja, Performance/Watt ist einfach derbe besser als beim r580. Da hast du recht :up:
Tja, Performance/Watt ist einfach derbe besser als beim r580. Da hast du recht :up:
was logisch ist,denn die ati is uralt ...ohman
horn 12
2007-04-10, 22:26:47
Oh Gott, nun noch ein R650
Also ist die X2900 xxx doch ein waschechter R600!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1
R650 is 65 nm core (http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1)
Ich denke, wir werden diesen hier zeitgleich mit dem G90 sehen.
R650 is 65 nm core (http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1)
Ich denke, wir werden diesen hier zeitgleich mit dem G90 sehen.
[/QUOTE]
Bin mal gespannt, wann der erscheint. Aber vor Oktober wird das wahrscheinlich nix mehr werden, es sei denn, es passiert noch ein technologisches Wunder. *Warten auf Godot* :D
Mein Gott,
hört doch mal auf diesen Reporter dauernd zu zitieren. In seinen Texten steht 0,0 Information.
Das der Nachfolgechip in 65nm kommt, ist doch klar. Dafür braucht man keinen fudo...
Das der Nachfolgechip in 65nm kommt, ist doch klar. Dafür braucht man keinen fudo...
Ist doch ok, wenn er das schreibt.
Die Leute sind ja auch überrascht, dass MS an einem SP1 für Vista arbeitet (womöglich gibts sogar schon erste Planungen für SP2 *schreck*), AMD und Intel schon an der übernächsten Generation entwickeln. Nächstes Jahr kommen dann neue unerwartete Knaller: ATI arbeitet am R700 Nvidia an G100 und Nachfolger, die vielleicht sogar nen Refresh in 45nm kriegen, Intel kündigt den Octacore an usw..
Um solche Dinge zu erkennen, muss man schon Insider sein und gute Quellen haben. X-D
Interessanter wären News wie: "Intel unterstützt die Firmen aus ihrem Partnerprogramm, statt ihnen nur Kosten aufzudrücken und keine Gegenleistung zu liefern". Das wäre auch mal was neues. ;)
was logisch ist,denn die ati is uralt ...ohman
So logisch ist das nicht. Es ist der gleiche Prozess, und G80 hat fast doppelt so viele Transistoren.
Moralelastix
2007-04-11, 02:34:27
Man da ham sich ja zwei gefunden.:biggrin:
AMD mit der Finazkrise: http://www.overclockers.com/tips01136/
Und scheinbar mit dem Barcelona höchstens zu einem Leistungspatt im Vergleich zu Intel im stande. Ansonsten hätten sie es ja schon rausposaunt.
ATI: R600 wird nix und muss schnellstens duch den R650 erstetzt werden. Wie davor ja auch schon mal.
Des kann ja noch lustig werden.
nagus
2007-04-11, 07:44:57
diesen thread sollte man im auge behalten :)
http://forums.overclockers.co.uk/showthread.php?t=17712718&page=1&pp=30
dieser typ bekommt anscheinend diese woch (angeblich am 12. april) ein R600 testmuster :)
Bilder kann er schießen (und veröffentlichen?), aber keine Ergebnisse zeigen?
Blutmaul
2007-04-11, 10:20:27
Die OEMs, insbesondere Dell, sollen die kleinen 600er wie geschnitten Brot kaufen:
http://uk.theinquirer.net/?article=38836
Wenn Dell wieder ganze Hallen leer kauft muss AMD ja wieder schauen das was für den Endusermarkt über bleibt*g*
Denke das kam genau richtig für AMD!
Gouvernator
2007-04-11, 10:43:24
Man da ham sich ja zwei gefunden.:biggrin:
AMD mit der Finazkrise: http://www.overclockers.com/tips01136/
Und scheinbar mit dem Barcelona höchstens zu einem Leistungspatt im Vergleich zu Intel im stande. Ansonsten hätten sie es ja schon rausposaunt.
ATI: R600 wird nix und muss schnellstens duch den R650 erstetzt werden. Wie davor ja auch schon mal.
Des kann ja noch lustig werden.
Das AMD seine CPU's an die Grafikkarte koppellt gibt kein gutes Bild. Wenn man bedenkt wie lange schon sie von intel in den Arsch gekickt werden und tun rein gar nix... Sieht es düüüüster für die GPU Abteilung.... Ich denke wir werden gemäß dieser bescheuerten AMD Politik eine GPU in 5 Jahre Zyklus erleben... good bye ATI .
r3ptil3
2007-04-11, 10:45:39
diesen thread sollte man im auge behalten :)
http://forums.overclockers.co.uk/showthread.php?t=17712718&page=1&pp=30
dieser typ bekommt anscheinend diese woch (angeblich am 12. april) ein R600 testmuster :)
Wenn er überhaupt irgendwas darüber veröffentlichen darf?
Mythos;5397939']Die ATi Chipsätze standen den NVIDIA Chipsätzen bisher in nichts nach,Doch, in gewissen Punkten sind die Nforce-Chipsätze den ATIs in Sachen Featureset überlegen. Beispielsweise die Anzahl der nativen SATA-Ports oder Dual-Gbit-LAN. Natürlich braucht das nicht jeder User, aber mir persönlich sind 4 SATA-Ports viel zu wenig.
Als der Nforce 4 neu rauskam, hatte ATI überhaupt nichts vernünftiges zu bieten. Das hat sich ja glücklicherweise mittlerweile geändert.
Popeljoe
2007-04-11, 10:47:49
Wie lange dauert es nach dem offiziellen Release bis die Grakas im Handel zu bekommen sind?
Erwartet ihr einen Preissturz bei den älteren Karten.
P1
Crazy_Chris
2007-04-11, 11:14:17
Mai und ja :wink: Nur die X1950Pro wird wohl nicht wirklich billiger werden da diese sicher nicht langsamer als ein X2600 sein wird.
deekey777
2007-04-11, 12:41:00
Wie lange dauert es nach dem offiziellen Release bis die Grakas im Handel zu bekommen sind?
Erwartet ihr einen Preissturz bei den älteren Karten.
P1
Sofort, wenn die Versprechen eingehalten werden.:)
Noch tiefer können die Preise gar nicht fallen.;)
R650 ahoi! :smile:
First, R600 is going to be more affordable than any GPU part after Radeon 9700Pro and 9800Pro. AMD wants to undercut current high-end price bracket by $100-150, so expect an 8800GTX performing part for the price of 8800GTS. This is not all.
The company is getting the 65nm part on line as soon as possible, as this will enable savings in power well within the 60-100 Watt range, depending on what part are we talking about.
http://www.theinquirer.net/default.aspx?article=38837
Haha, die Firma richtet sich selbst hin.
Ein Preiskampf mit nVidia? Mit der Firma, welche ihre Produkte schon gewinnbringend verkauft haben?
Na, wenn das mal nicht ins Auge geht.
R650 ahoi! :smile:
http://www.theinquirer.net/default.aspx?article=38837
LOL? Sollte u.a. auch laut INQ nicht der R600 schon in 65nm kommen? Und jetzt beeilt man sich, die Dinger ASAP auf 65nm umzustellen???
w0mbat
2007-04-11, 13:10:47
Haha, die Firma richtet sich selbst hin.
Ein Preiskampf mit nVidia? Mit der Firma, welche ihre Produkte schon gewinnbringend verkauft haben?
Na, wenn das mal nicht ins Auge geht.
ATi verkauft die RV6xx GPU wie warme Brötchen. Mach dir nur keine Sorgen um AMD :smile:
[MK2]Mythos
2007-04-11, 13:11:57
Das AMD seine CPU's an die Grafikkarte koppellt gibt kein gutes Bild. Wenn man bedenkt wie lange schon sie von intel in den Arsch gekickt werden und tun rein gar nix... Sieht es düüüüster für die GPU Abteilung.... Ich denke wir werden gemäß dieser bescheuerten AMD Politik eine GPU in 5 Jahre Zyklus erleben... good bye ATI .
Eigentlich verdient so ein Quatsch gar keinen Kommentar, aber ich kann nicht widerstehen.
Du glaubst doch wohl selber nicht das AMD demnächst nur noch GPU Neuerscheinungen mit neuen CPU's startet anbietet / launched? Das passiert mit dem R600 nur, weil AMD natürlich nicht die Leistungsfähigkeit auf einem Intel System präsentieren möchte - aus nachvollziehbaren Gründen. Und AMD wurde bisher auch nicht von Intel "in den Arsch gekickt", sie haben angemessen reagiert und die Preise gesenkt weil im High End nichts vergleichbar Schnelles zu liefern war. Dies war das einzige, was AMD in dem Zeitraum der Core "Herrschaft" tun konnte, man wirft nicht eben mal schnell eine neue CPU raus, wenn der Wettbewerber was Besseres hat. Desweiteren hast du, das behaupte ich jetzt einfach mal, überhaupt keinen Überblick über die AMD Politik und kannst demnach diese auch überhaupt nicht beurteilen oder Aussagen wie "good bye ATI" treffen.
James Ryan
2007-04-11, 13:14:46
ATi verkauft die RV6xx GPU wie warme Brötchen. Mach dir nur keine Sorgen um AMD :smile:
:eek:
Du scheinst eine Zeitmaschine zu haben und aus der Zukunft zu kommen!
MfG :cool:
w0mbat
2007-04-11, 13:22:39
Nein, Dell & Co. kaufen jetzt schon.
Nö das sagen diversen Webseiten mit verweis auf den DELL Deal.....
Nö das sagen diversen Webseiten mit verweis auf den DELL Deal.....
Das war zu erwarten!
Meine Glaskugel:
Dell wird voll in den Launch einsteigen: mit sorgsam geschnürtem Paket zum Schnäppchenpreis
TOP: QC samt CF?
Gouvernator
2007-04-11, 13:27:38
Desweiteren hast du, das behaupte ich jetzt einfach mal, überhaupt keinen Überblick über die AMD Politik und kannst demnach diese auch überhaupt nicht beurteilen oder Aussagen wie "good bye ATI" treffen.
Genau deswegen weil ich auf die AMD Politik blicke (und sie ehrlich scheisse finde) ist für mich ATI schon so gut wie gestorben. ATI war damals, egal wie gut oder schlecht das Produkt war (r520) immer present und zuverlässig. Jetzt wo AMD das sagen hat werden (ATI)Pläne durchgeworfen und an ihre höchst rückständige Politik angepasst.
Ati stand eher für "alles oder nichts"-Devise wo AMD seit ihrer Gründung nur aus fremdem Trog gefressen hat und ewig Zweiter war.
ATi verkauft die RV6xx GPU wie warme Brötchen. Mach dir nur keine Sorgen um AMD :smile:
Ja, vielleicht verkauft AMD seit kurzen warme Semmeln. Aber RV6xx Karten wohl weniger.
w0mbat
2007-04-11, 13:33:05
Ja, vielleicht verkauft AMD seit kurzen warme Semmeln. Aber RV6xx Karten wohl weniger.
:confused:
Natürlich verkauft AMD (ATi) RV6xx GPUs.
:confused:
Natürlich verkauft AMD (ATi) RV6xx GPUs.
Und wo?
Nur weil es TheInq berichtet, ist es nicht wahr.
w0mbat
2007-04-11, 13:44:59
Glaub mir, es stimmt. Der INQ phantasiert nicht einfach irgendwelche Deals - sie waren auch die ersten mit Dell & AMD CPUs.
Und wo?
Nur weil es TheInq berichtet, ist es nicht wahr.
Ich denke in einen Monat wissen wirs.
Und wie gesagt, im unteren Preissegment owned ATI.
Glaub mir, es stimmt. Der INQ phantasiert nicht einfach irgendwelche Deals.
Nein, natürlich nicht...
Es ist ihr tägliches Brot zu phantasieren.
James Ryan
2007-04-11, 14:14:19
:confused:
Natürlich verkauft AMD (ATi) RV6xx GPUs.
Wie will ATi etwas verkaufen was gerade vielleicht produziert wird? Verkauft ATi vielleicht auch schon R700er Karten an Dell?
Liest du eigentlich noch deine Posts und denkst vorher mal nach?
MfG :cool:
w0mbat
2007-04-11, 14:18:32
Wie will ATi etwas verkaufen was gerade vielleicht produziert wird? Verkauft ATi vielleicht auch schon R700er Karten an Dell?
Liest du eigentlich noch deine Posts und denkst vorher mal nach?
MfG :cool:
ATi kann sehr gut verkaufen was schon produziert wird :rolleyes:
Blutmaul
2007-04-11, 14:19:05
Wie will ATi etwas verkaufen was gerade vielleicht produziert wird? Verkauft ATi vielleicht auch schon R700er Karten an Dell?
Liest du eigentlich noch deine Posts und denkst vorher mal nach?
MfG :cool:
Ich glaub nicht, das AMDATI mit den OEMs in Verhandlungen tritt, nachdem sie 10 Mio GPUs auf Halde produziert haben.
Wenn sie nun schon Verträge abgeschlossen haben, haben sie natürlich auch schon "verkauft".
san.salvador
2007-04-11, 14:21:30
Wie will ATi etwas verkaufen was gerade vielleicht produziert wird? Verkauft ATi vielleicht auch schon R700er Karten an Dell?
Liest du eigentlich noch deine Posts und denkst vorher mal nach?
MfG :cool:
[ ] Du hast das Prinzip der Vorbestellung bzw. des Werkvertrags verstanden. :rolleyes:
Glaub mir, es stimmt. Der INQ phantasiert nicht einfach irgendwelche Deals - sie waren auch die ersten mit Dell & AMD CPUs.
Sollen wir dir oder dem INQ glauben? Beides keine rosigen Alternativen IMO...
Sollen wir dir oder dem INQ glauben? Beides keine rosigen Alternativen IMO...
Die Infos vom INQ sind viel besser als hier getan wird :wink:
BTW:
3DCenter Forum > Diskussions-Foren > Spekulationen > R600: alles rund um die neue Generation, Teil 7
Die Infos vom INQ sind viel besser als hier getan wird :wink:
BTW:
Ohne die beiden wär es viel weniger spannend.
Das Problem ist, das Fudzilla und The Inquirer nicht unbedingt nur Märchen berichten, sondern manchmal eben auch die Wahrheit - und das als erste. Wenn es eine reine Märchenargentur wäre, müsste man sich in der Tat nicht mit denen beschäftigen - aber so einfach ist die Lage eben nicht.
Außerdem ist die Anzahl der echten Falschinfos bei Fudzilla und The Inquirer gar nicht so hoch wie man denkt. Das Problem ist vielmehr, das Fuad viele gute Bruchstück-Informationen bekommt und diese nicht einordnen kann und deswegen fehlinterpretiert. Sprich selbst eine fehlerhafte Meldung von Fuad kann dennoch noch griffige Infos enthalten, die - richtig interpretiert - ein neues Puzzlestück ergeben. Die meisten News von Fuad sind in diesem Stil - es besteht hier zumeist "nur" die Kunst darun, die eigentlich zugrundeliegende Information zu erkennen und Fuads Dichtung links liegen zu lassen.
Popeljoe
2007-04-11, 15:01:40
Die Infos vom INQ sind viel besser als hier getan wird :wink:
BTW:
Deswegen hab ich ja auch schon versucht DK zu einem Link aus dem ATI UF in diesen Fred zu bewegen... :)
P1
reunion
2007-04-11, 15:26:03
So logisch ist das nicht. Es ist der gleiche Prozess, und G80 hat fast doppelt so viele Transistoren.
Ein R300 hat auch eine wesentlich besser Performance/Watt als ein NV20, und ein NV40/R420 hat eine bessere als Nv35, alles trotz gleicher Strukturbreite. Und so weiter, und sofort. Dass nicht nur die Leistung, sondern auch die Effizienz von GPU ständig steigt, ist nichts neues. Letztendlich ist G80 schon eine Generation weiter als R580, und damit wäre alles andere auch sehr enttäuschend.
Wie will ATi etwas verkaufen was gerade vielleicht produziert wird? Verkauft ATi vielleicht auch schon R700er Karten an Dell?
Liest du eigentlich noch deine Posts und denkst vorher mal nach?
MfG :cool:
Also auf dich trifft dein letzter Satz offensichtlich nicht zu. Kunden wie Dell haben mit Sicherheit schon mindestens seit Anfang des Jahres sämtliche Karten die ATi und nV noch in diesem Halbjahr vorstellen. Wenn das NDA fällt, muss da längst alles ausverhandelt, und hunderttausende PCs bereits zusammengebaut sein, denn dann werden die Rechner mit den neuen Karten schon ausgeliefert.
Anarchy-HWLUXX
2007-04-11, 17:36:01
R600 in house pictures - Take that massive cooler off
http://www.fudzilla.com/index.php?option=com_content&task=view&id=483&Itemid=1
Des ist mal nen DIE :eek:
Schrotti
2007-04-11, 17:41:10
Hast du was kleineres erwartet?
R600 in house pictures - Take that massive cooler off
http://www.fudzilla.com/index.php?option=com_content&task=view&id=483&Itemid=1
Des ist mal nen DIE :eek:
An der Karte ist einfach alles extrem. Bin mal gespannt, was Amd dafür verlangen will. Jedenfalls bekommt man ordentlich was für sein Geld geboten - vom Material her betrachtet. Wenn die Performance dann auch noch stimmt, wird's ein Kracher.
w0mbat
2007-04-11, 17:52:27
An der Karte ist einfach alles extrem. Bin mal gespannt, was Amd dafür verlangen will. Jedenfalls bekommt man ordentlich was für sein Geld geboten - vom Material her betrachtet. Wenn die Performance dann auch noch stimmt, wird's ein Kracher.
Willst du die OEM Karte kaufen :confused:
Willst du die OEM Karte kaufen :confused:
Das ist die einzige Karte, die es bis jetzt gibt. Die andere Karte mit dem gemäßigten Kühler hat noch keiner zerlegt und keiner hat gesehen, dass sie gelaufen ist. Außerdem glaube ich, dass zumindestens die XTX bzw. die schnellste R600 Version diesen Kühler bekommt wegen der extremen Abwärme.
deekey777
2007-04-11, 18:01:40
Hast du was kleineres erwartet?
Beim ersten Lesen dachte ich, das wäre ein sarkastisches Posting in Richtung der Bildgröße. X-D
Zu den Bildern: Fuda weiß schon, was er tut. Jede so sinnlose News bringt ihm Klicks, die ihm Geld bringen. Jetzt kann er sich die X29000irgendwas leisten (eBay?). :biggrin:
Genau wie die News, dass der R650 in 65 nm gefertigt wird. Es ist seit mehreren Monaten klar, dass es einen Shrink auf 65 nm geben wird, was aber nicht klar war, um welchen Chip es genau handeln wird. Es gab zwei Vermutungen: R650 ist der geschrinkte R600 und dann kommt der echte R680 als Refresh mit mehr Power. Die andere war, dass der R680 der geshrinkte R600 sein wird.
R600 in house pictures - Take that massive cooler off
http://www.fudzilla.com/index.php?option=com_content&task=view&id=483&Itemid=1
Des ist mal nen DIE :eek:
" This card has 1024 MB of memory and some dodgy drivers. "
Klingt ja nicht gerade toll - Ati war doch immer so stolz auf ihre guten Treiber...
LovesuckZ
2007-04-11, 18:11:05
Hat irgendwer schonmal eine OEM Karte zum Laufen bekommen?
Wenn er wirklich viele Klicks haben will, soll er doch einfach mal irgendeinen Benchmark laufen lassen und Bilder Online stellen.
Bilder von der Karte saugen wirklich langsam!
Undertaker
2007-04-11, 18:16:46
Klingt ja nicht gerade toll - Ati war doch immer so stolz auf ihre guten Treiber...
die zeit war spätestens mit der einführung des ccc zuende... :rolleyes:
deekey777
2007-04-11, 18:18:10
Hat irgendwer schonmal eine OEM Karte zum Laufen bekommen?
Wenn er wirklich viele Klicks haben will, soll er doch einfach mal irgendeinen Benchmark laufen lassen und Bilder Online stellen.
Bilder von der Karte saugen wirklich langsam!
Wenn er die Karte zum Laufen bekommt, wird er für jeden 3D Mark GT eine News schreiben. Mit 3DMark 99 fängt er dabei an. :biggrin:
Wobei man ihn loben muss: Ist das nicht das erste Bild mit abmontiertem Kühler?
Popeljoe
2007-04-11, 19:14:46
Wenn er die Karte zum Laufen bekommt, wird er für jeden 3D Mark GT eine News schreiben. Mit 3DMark 99 fängt er dabei an. :biggrin:
Wobei man ihn loben muss: Ist das nicht das erste Bild mit abmontiertem Kühler?
Wie selbst einige Pics schon zu ner Gelddruckmaschine werden können...
Wahrscheinlich hat er beim abmontieren des Kühlers den DIE beschädigt! :ulol:
Deshalb werden leider keine Benches von ihm kommen...;D
P1
Fetza
2007-04-11, 19:14:47
Zu den Bildern: Fuda weiß schon, was er tut. Jede so sinnlose News bringt ihm Klicks, die ihm Geld bringen. Jetzt kann er sich die X29000irgendwas leisten (eBay?). :biggrin:
Genau deshalb frage ich mich, warum fast jeder darauf reinfällt. Hier werden teilweise auch die albernsten news von ihm gepostet. Obs jetzt der g100 ist oder halt diverse andere glaskugelspekus. Naja wenn die leute spaß an sowas haben ist es ja ok, aber mir wäres zu blöd, ihn dann noch mit "klicks" zu unterstützen.
greetz
MartinRiggs
2007-04-11, 19:27:26
die zeit war spätestens mit der einführung des ccc zuende... :rolleyes:
dann hast du aber andere Infos wie ich, das CCC war am Anfang nicht wirklich performant, obwohl es bei mir nie so schlimm war wie es einige hingestellt haben.
Aber seit dem 7.1 glaube ist es wirklich rasend schnell und die reine Treiber-Qualität ist seit langem gut, es funzt alles was man ja bei den 8800er nicht behaupten kann.
Knacki99
2007-04-11, 19:32:59
Sieht irgendwie verdammt nach R520 - R580 Szenario aus...
dann hast du aber andere Infos wie ich, das CCC war am Anfang nicht wirklich performant, obwohl es bei mir nie so schlimm war wie es einige hingestellt haben.
Aber seit dem 7.1 glaube ist es wirklich rasend schnell und die reine Treiber-Qualität ist seit langem gut, es funzt alles was man ja bei den 8800er nicht behaupten kann.
Was stimmt denn nicht an den Treibern der 8800 Karten? Hab ich was verpasst oder wo gibts von Ati DX10 Karten incl. Treibern? Immer diese Dummschwätzer die von nix ne Ahnung haben...
horn 12
2007-04-11, 19:47:22
Da könnte ja dar die X2900 XL um die 290-320 Euro zu haben sein. Finde ich genial wenn es so kommt. Endlich mal High End Karten un die gut 400 Euro.
Ein R300 hat auch eine wesentlich besser Performance/Watt als ein NV20
Aber er braucht fast das doppelte. Ein G80 braucht wenn's hoch kommt grad mal 10% mehr als R580.
robbitop
2007-04-11, 20:22:03
dann hast du aber andere Infos wie ich, das CCC war am Anfang nicht wirklich performant, obwohl es bei mir nie so schlimm war wie es einige hingestellt haben.
Aber seit dem 7.1 glaube ist es wirklich rasend schnell und die reine Treiber-Qualität ist seit langem gut, es funzt alles was man ja bei den 8800er nicht behaupten kann.
Rasend schnell ist arg uebertrieben. Es ist nicht mehr ganz so langsam.
Vor diesem Mist haben die Controlpanels sofort reagiert ohne Ladezeiten.
Botcruscher
2007-04-11, 20:32:25
Ich find CCC schon von der Anwendung Mist. Da war das alte Panel um Universen besser.
horn 12
2007-04-11, 20:43:33
Langsam löst sich das Rätsel immer mehr,- und bin gespannt wann endlich die ersten Benchmarks durchsickern. Lang kann es nicht mehr dauern.
Seht:
http://www.nvnews.net/vbulletin/showthread.php?p=1223142#post1223142
Langsam löst sich das Rätsel immer mehr,- und bin gespannt wann endlich die ersten Benchmarks durchsickern. Lang kann es nicht mehr dauern.
Seht:
http://www.nvnews.net/vbulletin/showthread.php?p=1223142#post1223142
Die Lüfterfirma scheint ne andere zu sein als beim letzten Mal. Allerdings immer noch 2 A! :hammer:
[MK2]Mythos
2007-04-11, 20:56:12
Auch wenns bescheuert klingt, mir gefällt die OEM Variante irgendwie besser als die Retail Karte, hat was von der V5 6000, die ich nie besitzen durfte. :D BTW, Die Karte, die horn gepostet hat, besitzt ja wieder den "alten" Lüfter bzw Lüftergehäuse...
Benchmark of R600, looks to be 260 watts. Can anything be done to bring that down as time goes on? That is fairly high consumption.
With the next version of the R600-based cards, you will see power go down, while performance goes up. Another result of the two companies coming together. Gamers want performance at any cost, and AMD is focused on optimizing dissipation of that thermal energy. 30db noise level coming on multiple CPU and GPU in the near future.
http://www.gearlive.com/news/article/159-amd-press-qa
reunion
2007-04-11, 20:57:46
Da ist doch tatsächlich ein Theater 200 Videoprozessor oben. Sonst gibts nicht wirklich was neues, außer dass der GDDR4-RAM zumindest bei diesem Sample mit "nur" 0.9ns eher gemächlich takten wird, und das der Lüfter mit einer maximalen Leistungsaufnahme von 24W nach wie vor schlimmes erwarten lässt. Und die Platine sieht auch verdammt komplex bzw. fast überfüllt aus.
AnarchX
2007-04-11, 21:05:10
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
@Bilder:
Bei solch einem komplexen PCB wird man wohl nicht viel verdienen, wenn man die R600-Karten zu einem relativ niedrigen Preis anbieten will. :|
Was stimmt denn nicht an den Treibern der 8800 Karten? Hab ich was verpasst oder wo gibts von Ati DX10 Karten incl. Treibern? Immer diese Dummschwätzer die von nix ne Ahnung haben...
Hab noch keine vorteile von dein Argumenten geshen.....
Schrotti
2007-04-11, 21:08:06
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
@Bilder:
Bei solch einem komplexen PCB wird man wohl nicht viel verdienen, wenn man die R600-Karten zu einem relativ niedrigen Preis anbieten will. :|
Türkisch oder?
Bitte mal übersetzen denn ich beherrsche kein Türkisch.
PS: Die TDP macht mir aber Angst.
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
Sollten die Werte stimmen, dann kann man wohl von einem GAU ausgehen.
Das scheint ein neuer trauriger Rekord zu werden.
TDP Werte der Radeon X2... -Serie? (http://www.fx57.net/?p=574)
@Bilder:
Bei solch einem komplexen PCB wird man wohl nicht viel verdienen, wenn man die R600-Karten zu einem relativ niedrigen Preis anbieten will. :|
Niedriger Preis? Also für die 1GB Variante wird man denke ich um die 699€ hinlegen müssen. Es sei denn, alle bis jetzt erschienen Karten auch der G80 sind in Wirklichkeit in der Produktion billig und werden nur zu einem überhöhten Preis verkauft. Ich denke nicht, dass Amd die Karten subventionieren werden. Höchstens ausgeglichen plus minus null und als Gewinn Prestige durch evtl. Benchmarkrekorde. Aber ein Verlustgeschäft können die sich eigentlich nicht erlauben.
LovesuckZ
2007-04-11, 21:14:51
Die Werte des RV630 sind doch ein schlechter Scherz, oder?
Entweder die Karten sind verdammt schnell oder das r600 Design ist so dermaßen ineffizient, dass sie die Taktraten bis zum Ende hochbringen müssen...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.