Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI-Grafikchips und die PS3 falten Proteine schneller/ 2008 nun auch GeForce
Wusste ich doch, daß meine X1900XT durchaus auch etwas wirklich sinnvolles zu tun vermag:biggrin:
> klick < (http://www.heise.de/newsticker/meldung/78948)
Undertaker
2006-10-03, 09:35:57
die meldung hatten wir schon vor ein paar tagen hier ;)
deekey777
2006-10-03, 21:11:03
Der Thread im Grafikchip-Forum ist ab jetzt dicht, da kam nichts Sinnvolles nach einigen Postings.
Egal, hier geht's weiter, es sei denn, die Leute mit einer oder zwei X1900ern erinnern sich, dass auch das 3DC ein F@H-Team hat.
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
Wahnsinn, was die wenigen Grafikkarten an Leistung bringen.
Foxbat
2006-10-03, 21:30:08
werden auch mehrere GraKas unterstützt, sprich Crossfire oder QuadSLI :usweet: ?
Wenn ja, dann glaube ich, dass 3Dc die anderen Teams ganz schnell ganz böse ownen könnte, vorausgesetzt diejenigen, die diese Hardware besitzen auch mitmachen :wave2:
Godmode
2006-10-03, 21:30:46
Wahnsinn, mehr kann ich dazu eigentlich nicht sagen! Man stelle sich vor es werden da 150.000 Gpus verwendet, dann haben wir mal schnell 11 * 1000 = 11.000 TFlops.
Edit: Hab nur eine 79GT, sonst würde ich auch dem 3DC-Folding Team helfen.
deekey777
2006-10-03, 21:32:02
Keine Ahnung, Vermutung: Die Grafikkarten müssen nicht im SLI- oder CF-Verbund laufen, sondern als Einzelgrafikkarten.
http://folding.stanford.edu/FAQ-ATI.html
Multiple GPUs are currently not supported (but will be supported in future releases); Crossfire is also not supported -- Crossfire will make FAH run more slowly than using a single GPU (this isn't a bug as much as a fundamental issue regarding the nature of a Crossfire/SLI type architecture).
Botcruscher
2006-10-03, 22:44:34
Versteh ich nicht. Die GPUs könnten seperat rechnen und müssen ja nicht zusammengeschaltet werden.
deekey777
2006-10-03, 22:48:26
Versteh ich nicht. Die GPUs könnten seperat rechnen und müssen ja nicht zusammengeschaltet werden.
Es scheint noch nicht ausgereift zu sein.
Ich weiß nich ob ich da mitmachen würde. Der Energiehunger der GPU dabei ist ja nicht gerade klein...
AnarchX
2006-10-03, 23:17:03
Ich weiß nich ob ich da mitmachen würde. Der Energiehunger der GPU dabei ist ja nicht gerade klein...
Wenn man auf die Perfomance/Watt schaut, relativiert sich dies doch sehr.;)
"Des Weiteren unterstützt der Catalyst 6.10 nun das Programm "Folding@Home" und bietet GPGPU-Unterstützung. GPGPU steht für "General Purpose Graphics Processing Unit". Hierbei soll die GPU keine Grafik berechnen, sondern anderweitige Berechnungen durchführen. Im Falle von Folding@Home geht es um die Erforschung von Proteinen, zu deren Berechnungen die Grafikkarte mit eingebunden wird. Dies funktioniert momentan allerdings nur mit einer Radeon X1900 oder X1950." > Quelle < (http://www.tweakpc.de/news/10368/ati-catalyst-beta-6-10-mit-neuen-features/)
Ist ja interessant, daß Ati für ein so (noch) relativ unbekanntes Programm extra die Treiber zu optimiert hat.
Foxbat
2006-10-04, 15:45:36
Keine Ahnung, Vermutung: Die Grafikkarten müssen nicht im SLI- oder CF-Verbund laufen, sondern als Einzelgrafikkarten.
http://folding.stanford.edu/FAQ-ATI.html
danke
Cyphermaster
2006-10-04, 16:01:26
Endlich mal eine sinnvolle Nutzung der ganzen Gaming-PCs, die im Dauerbetrieb als 24/7-"Download-Nutzvieh" völlig unterfordert ihr Dasein fristen müssen, bis der Besitzer wieder aus der Arbeit kommt...
Als "Download-Nutzvieh" Verbrauchen sie allerdings nicht so viel Strom als wenn sie 24/7 unter Volllast laufen...
Cubitus
2006-10-04, 18:31:28
Die Technik in aller Ehren.
aber was jucken mich als einfacher Gamer Proteine!
Ne, ATI soll lieber enger mit viel Entwicklern zusammenarbeiten,
in Zukunft sollten viel mehr ATI Logos in Spielen vorkommen.
ein Super Treiber nachgeliefert werden damit auf allen DirectX 9 Games
HDR und AA funktionieren.
Da könnte sich auch ATI etwas wirklich beweisen,
und nicht bei irgendwelchen Protein Berechnungen wo eh fast keiner Durchblickt!
Die Technik in aller Ehren.
aber was jucken mich als einfacher Gamer Proteine!
Ne, ATI soll lieber enger mit viel Entwicklern zusammenarbeiten,
in Zukunft sollten viel mehr ATI Logos in Spielen vorkommen.
ein Super Treiber nachgeliefert werden damit auf allen DirectX 9 Games
HDR und AA funktionieren.
Da könnte sich auch ATI etwas wirklich beweisen,
und nicht bei irgendwelchen Protein Berechnungen wo eh fast keiner Durchblickt!
Stimmt, sterben müssen wir sowieso alle irgendwann - also wozu die im Überfluß verfügbare Rechenpower nutzen und damit eventuell Leben retten?
Godmode
2006-10-04, 20:08:18
1. Es wäre wirklich super, wenn damit irgendwelche Fortschritte bei der Krankheitsbekämpfung gemacht werden würden, allerdings könnte ich mir vorstellen, dass sie ganz andere Dinge berechnen :naughty:
2. Noch viel reizvoller wäre es die Petaflop Marke zu durchschreiten, vor allem um die Super Computer Firmen bloß zu stellen.
3. Von mir aus könnten sie diesen Client gleich in Windows Vista integrieren und dann die gesamte geballte Rechenkraft der gesamten Welt verwenden, natürlich nur unter der Einverständnis des Users.
träum: 1.000.000 X19xx im Grid :biggrin:
also was man damit alles machen könnte!
klumy
2006-10-04, 22:15:12
Wenn man diese Technik auch für das Enkodieren von Filmen verwenden könnte, wäre das genial
AnarchX
2006-10-04, 22:16:50
Wenn man diese Technik auch für das Enkodieren von Filmen verwenden könnte, wäre das genial
AVIVO...;)
Mastermind
2006-10-04, 22:48:41
1. Es wäre wirklich super, wenn damit irgendwelche Fortschritte bei der Krankheitsbekämpfung gemacht werden würden, allerdings könnte ich mir vorstellen, dass sie ganz andere Dinge berechnen :naughty:
2. Noch viel reizvoller wäre es die Petaflop Marke zu durchschreiten, vor allem um die Super Computer Firmen bloß zu stellen.
3. Von mir aus könnten sie diesen Client gleich in Windows Vista integrieren und dann die gesamte geballte Rechenkraft der gesamten Welt verwenden, natürlich nur unter der Einverständnis des Users.
träum: 1.000.000 X19xx im Grid :biggrin:
also was man damit alles machen könnte!
Ja, das wär schon der Hammer damit mal Atombombensimulationen durchzuführen. :cool: Da ist unser Uni-Server nen Furz gegen. :redface:
Indiana
2006-10-05, 22:55:30
AVIVO...;)
Nur wird da entgegen der Aussagen von ATI nicht die GPU mitbenutzt - zumindest immer noch nicht.
Der AVIVO-Encoder ist zwar sauschnell, dies aber dennoch mit reiner CPU-Kraft.
haifisch1896
2006-10-08, 08:07:53
Nope
w0mbat
2006-10-08, 14:09:13
Wenn man diese Technik auch für das Enkodieren von Filmen verwenden könnte, wäre das genial
Gibt´s doch schon lange...
Arcanoxer
2006-10-08, 19:40:56
Und, hat schon wer Erfahrung mit den GPU client gesammelt? :confused:
Gibt´s doch schon lange...Im Consumerbereich? Wo denn?
Und, hat schon wer Erfahrung mit den GPU client gesammelt? :confused:
Nein, noch nicht. Ich warte lieber die Final ab. Wann könnte diese denn da sein?
haifisch1896
2006-10-09, 00:00:22
Im Consumerbereich? Wo denn?
Seit die X1xx0-Serie von ATI vorgestellt wurde. Mit dieser AVIVO-Software.
Man findet im Netz auch Versionen, wo nicht unbedingt eine X-Karte sondern auch eine 9600Pro, und älter verwendet werden kann.
edit:
Bei mir warens ~15% CPU-Last und die Umwandlung eines rund 1 3/4 Std. langen Films dauerte gerade mal ca. 10 min,
tokugawa
2006-10-09, 06:05:12
Seit die X1xx0-Serie von ATI vorgestellt wurde. Mit dieser AVIVO-Software.
Man findet im Netz auch Versionen, wo nicht unbedingt eine X-Karte sondern auch eine 9600Pro, und älter verwendet werden kann.
edit:
Bei mir warens ~15% CPU-Last und die Umwandlung eines rund 1 3/4 Std. langen Films dauerte gerade mal ca. 10 min,
Aber da ja gesagt wurde, dass dies eine reine CPU-Lösung ist, und du das Gegenteil behauptest: hast du einen Beweis dass da wirklich die GPU benutzt wird?
ElNipp
2006-10-09, 07:13:47
Und, hat schon wer Erfahrung mit den GPU client gesammelt? :confused:
Der Client läuft gut, wenn man alle Hinweise aus dem offiziellen Forum (http://forum.folding-community.org/viewforum.php?f=54) und den FAQ (http://folding.stanford.edu/FAQ-ATI.html) beachtet. Allerdings muss man einen CPU Core dafür opfern, da das DirectX Software Polling noch nicht optimal ist.
Nein, noch nicht. Ich warte lieber die Final ab. Wann könnte diese denn da sein?
Die momentane Beta-Version ist auf zwei Monate ausgelegt, siehe FAQ.
Es wurden auch schon andere Karten aus der X1x00 Reihe damit zum Laufen gebracht, allerdings ist zum einen noch nicht klar, ob die richtige Ergebnisse abliefern und zum anderen lohnt es sich punktemäßig nicht, da diese Karten deutlich langsamer sind und man auf einen CPU Client verzichten muss (siehe oben).
haifisch1896
2006-10-09, 19:55:11
Aber da ja gesagt wurde, dass dies eine reine CPU-Lösung ist, und du das Gegenteil behauptest: hast du einen Beweis dass da wirklich die GPU benutzt wird?
Gib mir per PN Deine email-Adresse und ich schicke Dir das Programm gerne zu.
voraussetzung ist, dass Du eine ATI-Karte Dein Eigen nennst.
Mit nvidia und Co. funktioniert das leider nicht. Und Screens davon habe ich auch nicht.
Wer würde das schon machen...
Indiana
2006-10-09, 20:44:30
Gib mir per PN Deine email-Adresse und ich schicke Dir das Programm gerne zu.
voraussetzung ist, dass Du eine ATI-Karte Dein Eigen nennst.
Mit nvidia und Co. funktioniert das leider nicht. Und Screens davon habe ich auch nicht.
Wer würde das schon machen...
Das ist ja mal 'ne Aussage. Zuschicken mußt Du den AVIVO-Encoder wohl niemandem, der ist auf ATIs Homepage für jedermann frei zum herunterladen..
...und er nutzt die GPU nicht (nicht hier mit meiner X1800XL)...
(die Aussage sollte man wohl gebetsmühlenartig ähnlich wie "und sie dreht sich doch..." oder "ceterum censeo carthaginem esse delendam" unter jedes Posting setzen, damit da nicht immer so ein Unfug verbreitet wird)
tokugawa
2006-10-09, 21:42:49
Gib mir per PN Deine email-Adresse und ich schicke Dir das Programm gerne zu.
voraussetzung ist, dass Du eine ATI-Karte Dein Eigen nennst.
Mit nvidia und Co. funktioniert das leider nicht. Und Screens davon habe ich auch nicht.
Wer würde das schon machen...
Du... den kann man auch einfach downloaden. Ich hab den auch schon genutzt. Aber das ist noch kein Beweis dass die Grafikkarte wirklich genutzt wird. Und ja, ATI-Karte hab ich.
edit:
Bei mir warens ~15% CPU-Last und die Umwandlung eines rund 1 3/4 Std. langen Films dauerte gerade mal ca. 10 min,
Mit deiner 6600 GT, die du laut Nethands im Rechner hast?
voraussetzung ist, dass Du eine ATI-Karte Dein Eigen nennst.
Mit nvidia und Co. funktioniert das leider nicht.
naja, das ist ja schon ein sehr starker hinweis dass die gpu genutzt wird, bei einer reinen software-lösung würde das ja keinen sinn machen.
haifisch1896
2006-10-09, 22:41:31
Ne, meiner vorigen 9600 Pro. Mit nv-Karten geht das leider nicht.
Ich würde die Version schicken, die keine Karte der X1xxx-Serie voraussetzt.
Ich gehe übrigens fest davon aus, dass die Shader doch genutzt werden. Sonst wäre wohl die CPU-Last höher.
Indiana
2006-10-10, 17:32:24
Ne, meiner vorigen 9600 Pro. Mit nv-Karten geht das leider nicht.
Ich würde die Version schicken, die keine Karte der X1xxx-Serie voraussetzt.
Ich gehe übrigens fest davon aus, dass die Shader doch genutzt werden. Sonst wäre wohl die CPU-Last höher.
1. Damit das Programm auch auf Nicht-X1k-Karten funktioniert, muß man nur ein Reg-Setting ändern. Eine "eigene Version" ist damit nicht notwendig.
2. Dürfte das, wenn die Shader der Version 3.0 benutzt werden (mit niedrigeren PS-Versionen macht es anscheinend keinen Sinn), bei der genannten Radeon 9600Pro schon gleich gar nciht funktionieren.
3. Die niedrige CPU-Last ist nicht normal, hier werden beiden Cores zu fast 100% ausgelastet
4. Arbeitet der Encoder wohl nur deswegen nicht auf Nicht-ATI-GPUs, weil es kein eigenständig aufrufbares Programm ist, sondern nur über ATIs CatalystControlCenter aufgerufen werden kann - und das läßt sich halt nur auf ATI-Karten installieren.
AnarchX
2006-10-10, 17:34:51
AVIVO läuft auch auf einem Rechner mit Nvidia-GraKa, wenn man die "richtige" Version hat(selbst getestet)...;)
Aber aktuelle ist es halt nur ein schneller Software-Encoder mit mangelhaften Einstellungen, vielleicht war DX9c für ATIs Planung nicht ausreichend und mit Radeon X2... werden wird dann echte GPU-Beschleunigung sehen.
deekey777
2006-10-10, 17:36:43
5. Zurück zum Thema.
ATI dives into stream computing
...and makes a splash (http://techreport.com/etc/2006q4/stream-computing/index.x?pg=1)
Wie mann sieht, giert nVidia auch schon nach diesem Markt.
Laut Entwickler der Software solls ja nur auf Ati laufen.
Weis wer, ob der G80 das können wird, oder ist da einiges per Treiber machbar?
However, the real goal for Nvidia with G80 chip is the Quadro series. This means no Folding@Home speedups, since the company wants to make money by selling GPGPU 4K-res special FX rendering beasts. Expect TurboCached Quadros with 768 of video memory - and a 1.5 GB is also planned, as we managed to learn in Frisco Bay- with addressing of all available system memory.
http://www.theinquirer.net/default.aspx?article=34885
AnarchX
2006-11-06, 21:03:30
Folding@Home GPU client gains CrossFire support
Good news for folders who happen to own an ATI CrossFire multi-GPU setup. Stanford University has released an update to its Folding@Home GPU client that adds support for CrossFire configurations. [...]
http://techreport.com/onearticle.x/11188
AnarchX
2006-12-05, 14:13:59
Stanford adds X1800 and X1600 support to FAH
Stanford's lastest beta GPU Folding@Home client has added support for both the ATI Radeon X1800 and X1600 GPUs. This complements the original beta supporting the X19xx-class of GPUs. The lastest version can be downloaded here.
No word as yet as to when NVIDIA and Stanford will bless a G80 update. NVIDIA has positioned G80 as a GPGPU powerhouse, and the high-profile FAH project would be a great place to make an early splash on the road to proving the reality of that capability.
http://www.beyond3d.com/forum/showthread.php?p=886155#post886155
deekey777
2007-03-15, 23:42:09
Auch die PS3 faltet endlich welche: http://www.dailytech.com/article.aspx?newsid=6507
F@H together with firmware 1.6 (http://forum.folding-community.org/ftopic18493.html)
SONY COMPUTER ENTERTAINMENT JOINS STANFORD UNIVERSITY FOLDING@HOME PROGRAM TO FURTHER MEDICAL RESEARCH (http://www.scei.co.jp/corporate/release/pdf/070315e.pdf)
mickii
2007-03-16, 09:09:06
schade das scheinbar der rsx nicht benutzt wird, damit haette die ps3 nochmals nen ordentlichen boost bekommen.
AnarchX
2007-03-16, 09:17:54
schade das scheinbar der rsx nicht benutzt wird, damit haette die ps3 nochmals nen ordentlichen boost bekommen.
Da wäre ich mir nicht so sicher, immerhin unterstützt ja auch Stanford keine GF6/7-GPUs auf Grund des schlechten dynamischen Branchings im Pixelshader und der RSX ist nunmal bis auf minimale Änderungen ein G70/G71.
mickii
2007-03-16, 09:39:11
Da wäre ich mir nicht so sicher, immerhin unterstützt ja auch Stanford keine GF6/7-GPUs auf Grund des schlechten dynamischen Branchings im Pixelshader und der RSX ist nunmal bis auf minimale Änderungen ein G70/G71.
dann lies mal den heise link beim ersten post, x1900 doppelt so fix wie es ein cell sein koennte, naemlich 100gflops und dann folge dem link unseres Mods, der kastrierte cell der ps3 ist ebenfalls im 100gflops bereich.
das sind immer haltlose behauptungen von leuten die nicht viel ahnung haben was sie sagen. ich weiss zwar nicht wie gut der rsx sein koennte, aber ich bin mir sicher das der noch einiges beitragen koennte beim crunching, gerade bei gut paralisierbaren dingen ist branching nicht so sehr kritisch, denn der rsx koennte dann in vielen durchlaeufen z.b. 100mal soviele aufgaben gleichzeitig abarbeiten.
wie gesagt, ne qualifizierte aussage gibt es bisher nicht.
AnarchX
2007-03-16, 10:14:51
dann lies mal den heise link beim ersten post,[...]
Und nur die X1000-GPUs seien in der Lage, den Overhead der Sprunganweisungen mit mathematischen Berechnungen zu überdecken, während die Nvidia-Chips Sprung-, Textur- und ALU-Berechnungen nicht gleichzeitig durchführen könnten. Außerdem unterbrächen die Nvidia-GPUs die Berechnung nach 64.000 Instruktionen und könnten die komplexe Software aus mehreren Millionen Anweisungen pro "Pixel" und pro Iteration nicht in einem Pass ausführen.
Das wird wohl auch auf den RSX zutreffen.
Aber natürlich könnte man mit entsprechender Programmierung sicherlich auch noch etwas Leistung aus dem RSX holen, der aber bei der PS3-Version von F@H momentan eh mit der Visualisierung beschäftigt ist.
deekey777
2007-03-16, 10:35:02
http://folding.stanford.edu/FAQ-PS3.html
The PS3 client will also support some advanced visualization features. While the Cell microprocessor does most of the calculation processing of the simulation, the graphic chip of the PLAYSTATION 3 system (the RSX) displays the actual folding process in real-time using new technologies such as HDR and ISO surface rendering. It is possible to navigate the 3D space of the molecule using the interactive controller of the PS3, allowing us to look at the protein from different angles in real-time.
Der RSX kümmert sich um die Bildchen, damit die Berechnung nicht langweilig wird.
So wie ich es verstanden habe, ist die PS3 mit dem eigenen Client etwa halb so schnell wie ein R580 mit dem GPU-Client. Die Aussagen sind widersprüchlich. In der PR-Mitteilung steht was von 20x so schnell wie ein herkömmlicher PC (R580: 20-30), wo anders steht dann 10x. Die 100 GLOP/s des Cell sind ein theoretischer Wert, wie die 384 GFLOP/s des R580. Der R580 erreicht mit dem GPU-Client um die 100 GFLOP/s (zumindest wurde dieser Wert bei der Ankündigung angegeben). Wie hoch die tatsächliche Leistung der PS3 (ist ja kein vollwertiger Cell drin) mit dem PS3-Client ist, werden wir erst sehen, wenn die Werte bei den Stats autauchen.
http://forum.folding-community.org/ftopic15982.html
Da gibt es auch einige Postings zu dem Thema: Es heißt, sie haben getestet, auch den RSX zum Falten zu bringen, aber es hat nichts gebracht.
Auch die PS3 faltet endlich welche: http://www.dailytech.com/article.aspx?newsid=6507
F@H together with firmware 1.6 (http://forum.folding-community.org/ftopic18493.html)
SONY COMPUTER ENTERTAINMENT JOINS STANFORD UNIVERSITY FOLDING@HOME PROGRAM TO FURTHER MEDICAL RESEARCH (http://www.scei.co.jp/corporate/release/pdf/070315e.pdf)
Mich würde interessieren was der Xenos da für eine Leistung bringt. Also der GPU client.
mickii
2007-03-16, 11:22:07
Ich hab mir den Thread da nicht ganz durchgelesen, aber ich gehe mal davon aus dass sie nicht wissen wie man ne nvidia gpu richtig zu nutzen ist. Das sind da sicher sehr gescheite leute, nur bedarf es auf jeder nicht generalpurpose-cpu/gpu eventuell einen _ganz_ anderen ansatz um probleme zu loesen und dafuer muss man viel erfahrung mit der arhitektur haben. wenn die NV jungs sich drangesetzt haetten, waere sicherlich was gutes dabei rausgekommen, schliesslich haben sie auch renderingsoftware fuer GPUs die ja nicht wirklich andere anspruehe an eine GPU setzt als das numbercrunching hier und es laeft wohl gut.
intel schreibt ja auch die besten tools (z.b. compiler,mathlib,jpglib) fuer ihre CPUs und dass nun das numberchrunching so gut auf der ps3 geht hat sicherlich was damit zu tun das sony da mitgeholfen hat. (jedenfalls entnehm ich das aus der sony-ceo aussage.)
Mastermind
2007-03-16, 12:24:54
Ich hab mir den Thread da nicht ganz durchgelesen, aber ich gehe mal davon aus dass sie nicht wissen wie man ne nvidia gpu richtig zu nutzen ist. Das sind da sicher sehr gescheite leute, nur bedarf es auf jeder nicht generalpurpose-cpu/gpu eventuell einen _ganz_ anderen ansatz um probleme zu loesen und dafuer muss man viel erfahrung mit der arhitektur haben. wenn die NV jungs sich drangesetzt haetten, waere sicherlich was gutes dabei rausgekommen, schliesslich haben sie auch renderingsoftware fuer GPUs die ja nicht wirklich andere anspruehe an eine GPU setzt als das numbercrunching hier und es laeft wohl gut.
intel schreibt ja auch die besten tools (z.b. compiler,mathlib,jpglib) fuer ihre CPUs und dass nun das numberchrunching so gut auf der ps3 geht hat sicherlich was damit zu tun das sony da mitgeholfen hat. (jedenfalls entnehm ich das aus der sony-ceo aussage.)
Es lohnt sich IMHO sowieso gar nicht mehr viel Zeit und Kraft in die GF6.../7...-Modelle zu investieren. Der G80 müsste doch mindestens zu den Leistungen der X1...-Familie fähig sein und da sollte man ansetzen. :smile:
mickii
2007-03-16, 12:33:54
Es lohnt sich IMHO sowieso gar nicht mehr viel Zeit und Kraft in die GF6.../7...-Modelle zu investieren. Der G80 müsste doch mindestens zu den Leistungen der X1...-Familie fähig sein und da sollte man ansetzen. :smile:
denk ich mir auch bzw. denkt das NV ganz sicher so. eigentlich muesste man die x1900 dafuer hypen dann wuerde NV sicher ein paar leute abstellen die den cruncher auf g80 optimieren *hehe*
ich glaube eher das der G80 einige X1900 dann chrunched :)
würde mich aber auch interessieren.
Das wird wohl auch auf den RSX zutreffen.
Tut es nicht. Das ist nur eine künstliche Limitierung in den nVIDIA-Treibern um zu verhindern, dass die GPU sich aufhängt. Bei einer Konsole gibt's solche Sicherheitsvorkehrungen normalerweise nicht.
Es lohnt sich IMHO sowieso gar nicht mehr viel Zeit und Kraft in die GF6.../7...-Modelle zu investieren. Der G80 müsste doch mindestens zu den Leistungen der X1...-Familie fähig sein und da sollte man ansetzen. :smile:
Es dürfte mit CUDA sogar um einiges einfacher zu machen sein. Ich denke da kommt noch was.
deekey777
2007-03-16, 16:32:15
Im F@H-Forum fand ich gerade paar interessante Links.
http://gizmodo.com/gadgets/home-entertainment/ps3s-folding-at-home-is-the-cell-proc-30-times-more-powerful-at-folding-than-a-pc-244528.php
http://gizmodo.com/gadgets/home-entertainment/exclusive-video-of-ps3s-folding-at-home-app-churning-away-at-protein-244534.php
Yes, and the PS3 is going to make a big impact. According to that chart, from the Folding at Home by OS stats:
1 Gigaflop per PC
3 Gigaflops per Intel Mac
30 Gigaflops of Folding Power per PS3
Nicht übel die Leistung.
Zu den 60 GFLOP/s der GPUs: Da sind alle Grafikkarten von der X1600Pro AGP bis zur X1950XTX dabei. Als es noch nicht so einfach war, kleinere Grafikkarten als X1900 zum Laufen zu bringen, waren es über 70 GFLOP/s. :smile:
Mich würde interessieren was der Xenos da für eine Leistung bringt. Also der GPU client.
Ja genau, warum gibts kein Folding für die Xbox?
mickii
2007-03-19, 09:19:06
Ja genau, warum gibts kein Folding für die Xbox?
weil man keine performante moeglichkeit hat die hardware auszunutzen, nur c#.net ist moeglich. und wenn man M$ wegen der performance fragt antworten die "ist irrelevant, da die spiele eh GPU limitiert sind"..was das angeht.
Bokill
2007-03-19, 10:08:00
Ja genau, warum gibts kein Folding für die Xbox? Weil es bei der Xbox 360 um ein "closed Source Objekt geht", die Xbox 360 soll gar nicht zewckentfremdet werden.
Da die Xbox 360 aber eine GPU von ATI hat, könnte die durchaus für derartige Dinge genutzt werden. Auch die kommende AMD/ATI R600 (http://www.orthy.de/index.php?option=com_content&task=view&id=4580&Itemid=86) ist für derartige Projekte ausgelegt.
Auch NVIDIA legt sich in das Zeug mit ihren GPUs und nennen derartige Streamingnutzung "CUDA (http://www.orthy.de/index.php?option=com_content&task=view&id=4577&Itemid=86)".
Auch der Cell an sich ist für derartige ähnlich wissenschaftliche Aufgaben durchaus geeignet, wird sogar gemacht (http://www.orthy.de/index.php?option=com_content&task=view&id=4622&Itemid=86).
Das Numbercrunching für Hochleistungsrechner mit GPUs, Cell wird auch mit Hilfe einer Middleware gemacht, die macht aber nicht unbedingt ATI/AMD, NVIDIA stammt, sondern von eine Firma namens Peakstream (http://www.orthy.de/index.php?option=com_content&task=view&id=4474&Itemid=86).
MFG Bobo(2007)
Weil es bei der Xbox 360 um ein "closed Source Objekt geht", die Xbox 360 soll gar nicht zewckentfremdet werden.
Da die Xbox 360 aber eine GPU von ATI hat, könnte die durchaus für derartige Dinge genutzt werden. Auch die kommende AMD/ATI R600 (http://www.orthy.de/index.php?option=com_content&task=view&id=4580&Itemid=86) ist für derartige Projekte ausgelegt.
Auch NVIDIA legt sich in das Zeug mit ihren GPUs und nennen derartige Streamingnutzung "CUDA (http://www.orthy.de/index.php?option=com_content&task=view&id=4577&Itemid=86)".
Auch der Cell an sich ist für derartige ähnlich wissenschaftliche Aufgaben durchaus geeignet, wird sogar gemacht (http://www.orthy.de/index.php?option=com_content&task=view&id=4622&Itemid=86).
Das Numbercrunching für Hochleistungsrechner mit GPUs, Cell wird auch mit Hilfe einer Middleware gemacht, die macht aber nicht unbedingt ATI/AMD, NVIDIA stammt, sondern von eine Firma namens Peakstream (http://www.orthy.de/index.php?option=com_content&task=view&id=4474&Itemid=86).
MFG Bobo(2007)
Closed Platform hin oder her, das ist bei der PS3 auch so. Schließlich läuft der Client ja nicht unter Linux sondern ist direkt in das proprietäre Sony OS integriert, sprich vom XMB aus aufrufbar.
Bokill
2007-03-19, 10:44:18
Closed Platform hin oder her, das ist bei der PS3 auch so. Schließlich läuft der Client ja nicht unter Linux sondern ist direkt in das proprietäre Sony OS integriert, sprich vom XMB aus aufrufbar. Falls es dir im Text noch nicht aufgefallen war ...
Ich sprach vom Cell in Form der Blades an, nicht in der etwas weniger Closed Source Form PS3.
Auf einer Bladeplattform von Mercury Systems, oder IBM kannst du alles raufspielen wozu du selbst Lust hast.
Und dir ist sicherlich weiterhin leider nicht der Link aufgefallen, der zur IP-Schmiede Peakstream führt, denn diese will wissenschaftliche Anwendungen mit einer Middleware zugänglich machen für Cell, ATI/AMD Streaming GPUs, sowie den NVIDIA Streaming GPUs.
Was die Spielekonsolen angeht, da muss man abwarten, wie weit offen Sony die PS3 macht. Ich persönlich halte es für denkbar, dass die SPEs des Cell in der PS3 durchaus verwendet werden könnten.
Sicher richtig ist aber, dass Sony nicht will, dass auch die ATI GPU der PS3 frei verfügbar für Programmierer wird, da denkt Sony ähnlich proprietär wie Microsoft.
MFG Bobo(2007)
mickii
2007-03-19, 11:10:34
Falls es dir im Text noch nicht aufgefallen war ...
Ich sprach vom Cell in Form der Blades an, nicht in der etwas weniger Closed Source Form PS3.wir hier sprechen von ps3 seit ein paar seiten
Auf einer Bladeplattform von Mercury Systems, oder IBM kannst du alles raufspielen wozu du selbst Lust hast.klar, fuer 20k, so wie ein blade mit 2cells kostet, kann ich dir so einiges realisieren.
Was die Spielekonsolen angeht, da muss man abwarten, wie weit offen Sony die PS3 macht. Ich persönlich halte es für denkbar, dass die SPEs des Cell in der PS3 durchaus verwendet werden könnten.dir ist sicherlich auch ein link entgangen....
Sicher richtig ist aber, dass Sony nicht will, dass auch die ATI GPU der PS3 frei verfügbar für Programmierer wird, da denkt Sony ähnlich proprietär wie Microsoft.die GPU ist von NVidia. Sony denkt sehr wenig proprietaer (du kannst ja sogar fuer einige deren fernseher die linux sourcen ziehen).
sie muessen jedoch in diesem fall ihren markt schuetzen und koennen nicht gratis verschenken wofuer spieleschmieden extra licenses ergattern muessen.
Bokill
2007-03-19, 11:31:21
Ach Shit, stimmt ja ... NVIDIA GPU in der PS3 ..., sorry.
Ansonsten bleibe ich aber bei der Betrachtung, dass es weniger Sinn macht eine Konsole mit einer GPU zu vergleichen.
Das ist so, als vergleicht man Autos mit Tierbeinen (wohlgemerkt Tierbeine, nicht Tiere).
Entweder GPU zu GPU vergleichen (oder die Cell, siehe Middlewarefirma für C, C++), oder Konsole vs Konsole.
MFG Bobo(2007)
mickii
2007-03-19, 14:13:15
Ansonsten bleibe ich aber bei der Betrachtung, dass es weniger Sinn macht eine Konsole mit einer GPU zu vergleichen.wir vergleichen die cell-cpu mit einer gpu, da leider der rsx chip der ps3 nicht benutzt wird.
Das ist so, als vergleicht man Autos mit Tierbeinen (wohlgemerkt Tierbeine, nicht Tiere).sowohl cell als auch gpus sagen von sich heute dass sie streamingprozessoren sind, beide wollen massiv parallel rechnen und sind am besten mit c programmierbar, sie haben ebenfalls einige limitierungen bzw anspruehe an die programmierer damit sie effizient rechnen koennen.
Entweder GPU zu GPU vergleichen (oder die Cell, siehe Middlewarefirma für C, C++), oder Konsole vs Konsole.
wir vergleichen 600euro geraet gegen 600euro geraet ;), nein scherz. soviele protein spezialportierungen gibt es zZ nicht, z.b. nichts fuer nv und nichts fuer x360, deswegen vergleichen wir was da ist und es ist oft der fight was besser/schneller ist, normale cpu, sonys cell wunder oder gpus (wie eben die von ati)
wir vergleichen also heir ausnahmsweise nicht um uns zu streiten, sondern weil wir es sicher alle gerne wuesten was andere systeme liefern.
Mastermind
2007-03-26, 14:14:59
Zieht euch mal die aktuellen Statistiken rein!!!
:eek: :eek: :eek:
deekey777
2007-03-26, 14:37:04
Zieht euch mal die aktuellen Statistiken rein!!!
:eek: :eek: :eek:
Und wo bleibt der Link?
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
Gestern waren es noch 500 TFLOP/s, die Leute springen nach und nach ab (beim Start des GPU-Clients war es auch so, nach und nach sind Leute abgesprungen, dafür ist die Anzahl der aktiven GPU-Clients gestiegen).
Wenn ich mich nicht verrechnet habe: etwa 15 GFLOP/s pro PS3.:smile:
Spasstiger
2007-03-26, 15:45:48
Wenn ich mich nicht verrechnet habe: etwa 15 GFLOP/s pro PS3.:smile:
Recht schwach gegenüber den rund 60 GFlops pro GPU.
deekey777
2007-03-26, 15:57:16
Recht schwach gegenüber den rund 60 GFlops pro GPU.
Finde ich, ehrlich gesagt, gar nicht. Selbst wenn eine X1600XT da besser ist.
Vielleicht kommen noch einige Optimierungen. Ich glaube, Sony ging hier sehr konservativ vor und wollte keinen Client, der zwar mehr Speed hätte, dafür aber Stabilitätsprobleme oder komplizierte Handhabung.
Selbst eine X1600Pro müsste schneller sein als die PS3. Aber: Abseits der technischen Sicht spielt dies überhaupt keine Rolle, denn hier geht es nicht darum, wer schneller ist (auch wenn die Punkte einen tollen Anreiz für Ruhm und Ehre darstellen).
Was mich echt interessieren würde ist wann das ganze Projekt fertig berechnet ist. (bei der jetzigen Zahl deren, die teilnehmen).
Monate oder gar Jahre?
Juice
2007-03-28, 01:06:43
Was mich echt interessieren würde ist wann das ganze Projekt fertig berechnet ist. (bei der jetzigen Zahl deren, die teilnehmen).
Monate oder gar Jahre?
garnich, da wird solange gerechnet bis es nix mehr zu rechnen gibt, Problem an der Sache: Es gibt immer was zu rechnen
Die falten da ja nich ein Protein und sind fertig, und wenn irgendwann mal was brauchbares dabei rauskommt, wird halt an etwas anderem weitergeforscht
garnich, da wird solange gerechnet bis es nix mehr zu rechnen gibt, Problem an der Sache: Es gibt immer was zu rechnen
Die falten da ja nich ein Protein und sind fertig, und wenn irgendwann mal was brauchbares dabei rauskommt, wird halt an etwas anderem weitergeforscht
Alles klar.
Ich dachte in diesem Fall ist es ähnlich wie mit der Decodierung der menschlichen Gene. Dieses Projekt wurde ja schon vor längerer Zeit abgeschlossen.
Daluxx
2007-03-31, 12:10:50
Wusste ich doch, daß meine X1900XT durchaus auch etwas wirklich sinnvolles zu tun vermag:biggrin:
> klick < (http://www.heise.de/newsticker/meldung/78948)
Als ein Cell?! Niemals....
deekey777
2007-03-31, 12:20:01
Als ein Cell?! Niemals....
Wenn eine X1600Pro in F@H schneller ist als die PS3, und die PS3 deiner Meinung nach schneller oder mindestens so schnell wie eine X1900er: Ist die X1600Pro dann schneller als eine X1900?
Ich bitte dich: Verzichte auf solche inhaltslosen Postings.
Nakai
2007-03-31, 13:31:25
Als ein Cell?! Niemals....
Für das was man einen Cell benutzen kann, ist eine X1900 deutlich schneller.
Der Cell ist eben auch nur ein Vektorprozessor mit einigen Zusätzen einer CPU.
In der aritmethischen Leistung ist selbst der Cell einen Grafikchip derbe unterlegen. So schnell ist der Cell auch wieder nicht...wie es ihm nachgesagt wird.
mfg Nakai
dildo4u
2007-03-31, 16:44:14
Ich würde den PS3 Client nicht direkt mir dem GPU Client von der Leistung her vergleichen da die PS3 auch leicht komplexere Berechnungen durchführen kann die auf den ATI Karten nicht gehen.Cell ist halt dann doch eher eine CPU als eine GPU.
What type of calculations the PS3 client is capable of running?
"The PS3 right now runs what are called implicit solvation calculations, including some simple ones (sigmodal dependent dielectric) and some more sophisticated ones (AGBNP, a type of Generalized Born method from Prof. Ron Levy's group at Rutgers). In this respect, the PS3 client is much like our GPU client. However, the PS3 client is more flexible, in that it can also run explicit solvent calculations as well, although not at the same speed increase relative to PC's. We are working to increase the speed of explicit solvent on the PS3 and would then run these calculations on the PS3 as well. In a nutshell, the PS3 takes the middle ground between GPU's (extreme speed, but at limited types of WU's) and CPU's (less speed, but more flexibility in types of WU's).
http://folding.stanford.edu/FAQ-PS3.html
Kommt halt drauf an was man persönlich höher bewerten will leichte Aufgaben die schnell durchgeführt werden oder leichte und mittel schwere Aufgaben die leicht langsammer berechnet werden.
Nakai
2007-03-31, 17:16:13
Ich würde den PS3 Client nicht direkt mir dem GPU Client von der Leistung her vergleichen da die PS3 auch leicht komplexere Berechnungen durchführen kann die auf den ATI Karten nicht gehen.Cell ist halt dann doch eher eine CPU als eine GPU.
Sicherlich hast du Recht, aber die SPEs sind nicht wirklich was anderes also Vektorprozessoren.
mfg Nakai
Ja, aber die SPEs sind keine Streamprozessoren, im Gegensatz zu einer GPU.
Nakai
2007-03-31, 19:48:00
Ja, aber die SPEs sind keine Streamprozessoren, im Gegensatz zu einer GPU.
Soweit ich das weiß, können sich mehrere SPEs zu Streamprozessoren zusammenschalten.
Ich bitte hierbei um Aufklärung.
mfg Nakai
Folding@Home für PlayStation 3 soll schneller werden
Seit PlayStation-3-Nutzer mit einer optionalen Software Rechenleistung für Folding@home spenden können, soll das verteilte Rechennetzwerk der Stanford University deutlich schneller geworden sein. Mit einem überarbeiteten Folding@home-Client soll die Hardware nun noch besser ausgenutzt werden und mehr zur Erforschung von Krankheiten wie Alzheimer beitragen.
http://www.golem.de/0704/51902.html
Soweit ich das weiß, können sich mehrere SPEs zu Streamprozessoren zusammenschalten.
Ich bitte hierbei um Aufklärung.
mfg Nakai
Das wäre mir neu. SPEs eignen sich natürlich hervorragend für Stream-Berechnungen, sind aber keine Streamprozessoren nach Definition. Es sind halt kleine CPUs die auf ihrem locale Storage arbeiten, aber es gibt keinen Streamkernel der auf jeden Input gleich angewendet wird wie bei einer GPU.
dildo4u
2007-04-27, 00:20:25
Durch das Update hat die PS3 bei mir nochmal deutlich an Speed zugelegt vorher 0.078sec pro Frame jetzt 0.039sec.Eine Workunit braucht jetzt ca 5 Stunden vorher 8.
deekey777
2007-04-27, 00:34:37
Da bin ich mal auf die aktualisierten Stats gespannt (morgen oder übermorgen werden WUs mit aktualisierter Version in die Stats miteinbezogen).
dildo4u
2007-04-27, 00:37:59
Hoffentlich bekommen auch die die ihre PS3 24/7 laufen lassen mit das es ein Update gibt denn das wird eigentlich nur angezeigt wenn man F@H neu startet.
deekey777
2007-04-27, 00:42:52
Hoffentlich bekommen auch die die ihre PS3 24/7 laufen lassen mit das es ein Update gibt denn das wird eigentlich nur angezeigt wenn man F@H neu startet.
Gerade diese "Freaks" bekommen das mit.:smile:
deekey777
2007-05-02, 01:45:03
Die GFLOP-Leistung ist von 13 auf über 17 gestiegen: Das erreicht man definitiv nicht durch kürzere WUs.
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
dildo4u
2007-05-02, 02:33:47
Seid dem Update gabs wieder ein Hoch an PS3 Clients von ca 28000 auf 35000 so einen rapiden Anstiegs gabs zum Anfang auch fragt sich nur ob sich das in 2 Wochen nicht wieder bei ~30000 einpendelt.
deekey777
2007-05-04, 11:16:19
Xbox 360 not as useful as PS3 for Folding@home (http://www.pro-g.co.uk/news/03-05-2007-5386.html)
PS3 Cell More Powerful Than Xbox 360 Xenon for Folding@home (http://www.dailytech.com/article.aspx?newsid=7158)
While the Xbox 360 CPU may not be tops in terms of Folding@home, its ATI-developed GPU could be much better. ATI Radeon GPUs running Folding@home are outperforming the PlayStation 3 on a per capita basis. Though whether or not the Xbox 360 will ever get its crack at helping to cure a disease remains to be seen.
Auch wenn das "Blahblah" ist, wäre es schon interessant, ob der Xenos dafür in der Lage ist.
So oder so: Den PS3-Client hat Sony selbst entwickelt. Da sollten doch in Redmond Alarmglocken läuten, es darf doch nicht wahr sein, dass irgendeine Pimmel-PS3 einen F@H-Client bekommt und die Xbox360 nicht.:biggrin:
Xbox 360 not as useful as PS3 for Folding@home (http://www.pro-g.co.uk/news/03-05-2007-5386.html)
PS3 Cell More Powerful Than Xbox 360 Xenon for Folding@home (http://www.dailytech.com/article.aspx?newsid=7158)
Auch wenn das "Blahblah" ist, wäre es schon interessant, ob der Xenos dafür in der Lage ist.
So oder so: Den PS3-Client hat Sony selbst entwickelt. Da sollten doch in Redmond Alarmglocken läuten, es darf doch nicht wahr sein, dass irgendeine Pimmel-PS3 einen F@H-Client bekommt und die Xbox360 nicht.:biggrin:
Wetten, daß 08 der Client für die Xbox da ist!
AnarchX
2007-05-04, 11:21:52
Mit dem 65nm Xenos könnte man ja dann auch ein F@H Taktprofil einbauen. ;)
Zaffi
2007-05-04, 12:32:24
coole Sache, werd einsteigen wenn ich meine X 1950 pro mit 512 MB habe...
Arcanoxer
2007-05-05, 09:37:09
Xbox 360 not as useful as PS3 for Folding@home (http://www.pro-g.co.uk/news/03-05-2007-5386.html)
PS3 Cell More Powerful Than Xbox 360 Xenon for Folding@home (http://www.dailytech.com/article.aspx?newsid=7158)
Auch wenn das "Blahblah" ist, wäre es schon interessant, ob der Xenos dafür in der Lage ist.
So oder so: Den PS3-Client hat Sony selbst entwickelt. Da sollten doch in Redmond Alarmglocken läuten, es darf doch nicht wahr sein, dass irgendeine Pimmel-PS3 einen F@H-Client bekommt und die Xbox360 nicht.:biggrin:
das kannst doch wirklich nicht von den verein erwarten... :|
Oh ja, vom pösen, pösen Microsoft doch nicht...
DanMan
2007-05-05, 13:46:35
Wetten, daß 08 der Client für die Xbox da ist!
Wohl nur, wenn sie es schaffen die GPU der XB360 zu verwenden. Denn die CPU ist ja laut dem F@H Menschen Professor leistungsmäßig nicht so interessant wie der Cell.
deekey777
2007-05-15, 22:27:22
Push it. :biggrin:
Mike Houston hat sich endlich zum R600 samt GPU-Client geäußert:
http://forum.folding-community.org/ftopic19851-0-asc-30.html
HD 2900XT FAH Summary:
The shipping client requires an update to run. The core is currently running, but having issues with the full client. Performance-wise, the 2900XT is 2.2X faster than R580 for the force calculation, but the surrounding kernels and the interaction with the CPU currently limit the speed up to 45% faster for the full client. We are working to improve speed and get more cores supported for the next release. Power wise, it depends on board temp, but we see 160-180W* when folding, roughly double R580. I haven't tested on the 2600/2400 yet, but it should work. The 2600 is *very* power efficient, and the 2400 in some configs doesn't even have a fan (!).
We are currently making lots of updates to the GPU client, including support for more cores and WUs (although debugging is taking longer than expected). When we get through this next push, we will release a new client which will add official support the newer chips.
*Der R580 ist beim Falten genügsamer als bei zB Spielen.
Mastermind
2007-05-15, 23:58:36
Push it. :biggrin:
Mike Houston hat sich endlich zum R600 samt GPU-Client geäußert:
http://forum.folding-community.org/ftopic19851-0-asc-30.html
*Der R580 ist beim Falten genügsamer als bei zB Spielen.
Schön. Aber von nVidia kommt immer noch nichts, oder hab ich was verpasst? Wäre auch mal ein interessanter Verlgeich, wenns da was für den G80 gäbe.
Hatt schon wer von euch den Client auf einer 29ooXT getestet?
Schön. Aber von nVidia kommt immer noch nichts, oder hab ich was verpasst? Wäre auch mal ein interessanter Verlgeich, wenns da was für den G80 gäbe.
Hatt schon wer von euch den Client auf einer 29ooXT getestet?
Komisch. Plötzlich kein Interesse mehr an sowas hier? Finde ich sehr schade. Es wäre sehr interessant zu sehen, was aus aktueller Hardware rauszuholen wäre und ob sich R600 noch über die 45% hinaus steigern konnte und was es nach so langer Zeit mit den Problemen beim G80 auf sich hat.
deekey777
2008-01-28, 23:43:43
November 2007:
SC2007 demo: new GUI and GPU clients (http://folding.typepad.com/news/2007/11/sc2007-demo-new.html)
With the help of ATI, Adam and Mark have scrubbed our GPU code very hard and using what we've learned so far, we have a next generation GPU core which should be faster, easier to install, and has much more accurate science (at first, comparable to the PS3, but hopefully soon, something even more accurate than the current PS3 client).
The new GPU client should be MUCH easier to install than previous versions. More on this as we go along, but ATI could make a huge difference here too
Anfang Januar:
http://foldingforum.org/viewtopic.php?f=10&t=152&st=0&sk=t&sd=a&start=60#p4906
Sorry for the delay in introducing the new GPU client/core. We hit a few snags and then hit the holiday break, but the team is back now. What I can say is that we have the new client running in our lab and we're doing some final Q&A on it. The performance is pretty good now (after some optimizations from Mark and Mike H.), so I'm optimistic. This does not look like a 6-month delay, more like a few week delay, but it's hard to tell -- you can't predict the unpredictable things which can come up.
25. Januar:
Code development updates (http://folding.typepad.com/news/2008/01/code-developmen.html)
Here are some code development updates on some important client/cores
GPU core: we've got the GPU core running in house and we found and fixed some bugs in our QA stage. We're now continuing QA to see if we find any more bugs. Right now, the GPU core is running on all new ATI cards, so we're excited to roll it out. We are using CAL now (ATI's hardware abstraction layer) and that seems to make life a lot easier, and also should make running a GPU client a lot easier from the point of view of donors, as the driver issues and complexities should now be resolved. We are still looking into an NVIDIA client. The NVIDIA GPUs are very different to program, so a port isn't a simple thing to do. We are looking into this, though.
:biggrin:
deekey777
2008-04-04, 19:35:46
Zwar gab es auch zwischendurch mehr als interessante Meeldungen zum GPU2-Client, ist spätestens diese am interessantesten:
GPU2 update (http://folding.typepad.com/news/2008/04/gpu2-update.html)
We've internally dubbed the new GPU client/core "GPU2". Here's an update. The GPU2 closed beta testing has been moving along well. There are a few bugs which have shown up, but nothing we'd call "showstoppers" just yet. The beta test is outside of Stanford and ATI now. If all looks good, we plan to next have a completely open beta.
Das ging aber ziemlich fix.
HarryHirsch
2008-04-04, 19:43:02
faltet hier denn jemand? wenn ja warum gibs noch keinen passenden thread?
HarryHirsch
2008-04-10, 19:10:06
endlich! (http://folding.typepad.com/news/2008/04/gpu2-open-beta.html)
gleich mal testen
Also ich habe meine GPU nicht, um irgendwelche Proteine zu falten, sondern bei mir soll die 3D darstellen. :D
HarryHirsch
2008-04-10, 21:05:07
das sollen meine auch. nur WENN sie die proteine schneller als nen e8400 falten, könne se das auch übernehmen
Krishty
2008-04-10, 23:12:09
Also, ich habe gerade die erste Arbeitseinheit auf meiner HD 2900 XT fertig. Sie erreicht gut 950ppd... im Folding-Forum hat jemand schon 1600ppd damit erreicht, aber bei mir scheint die CPU (Core 2 Duo E6400 @ 2.14Ghz) zu limitieren :(
Gruß, Ky
HarryHirsch
2008-04-10, 23:51:46
also unter vista mit cat 8.4 beta komm ich mit jeder gpu auf ~1000ppd
und unter xp mit cat 8.3 sind es pro gpu ~1800ppd
was haste denn fürn treiber drauf? ati empfiehlt den 8.3
Krishty
2008-04-11, 00:06:10
Habe den 8.3er unter Vista x64.
Ich betreibe die GPU mit 3D-Taktraten, aber nachdem sie mir gerade beim Start des CCC zum 2. abgestürzt ist, stelle ich lieber wieder auf 2D zurück. Mal schauen, wie sehr sich das auf die ppds auswirkt.
Ich lasse jetzt einen CPU- und einen GPU-Client laufen. Die 300ppd von 2 CPU-Clients haben sich auf 1100 erhöht (zumindest im 3D-Takt).
Die Temperatur vom Kern steigt bei mir übrigens viel stärker als die vom Speicher... kannst du sowas in der Richtung auch beobachten?
Gruß, Ky
Edit: Sehr schöne Sache: Stürzt die GPU ab, macht der Client weiter wo er aufgehört hat (nach seinem Neustart) :)
HarryHirsch
2008-04-11, 00:28:30
die speicher temp seh ich bei mir nich im ccc und die gpu temp ist wie immer unter last.
aufgefallen ist mir das die gpus nur zu ~85% ausgelastet werden, entweder das ist das so gewollt oder die cpu limitiert.
nebenbei spielen kann man auch :D hab gerade ne runde quake gespielt und das läuft so wie immer, nur sinken dann die ppd
Krishty
2008-04-11, 00:37:55
Gezockt habe ich noch nichts, muss ich auch mal probieren. Ein Tool zum Anzeigen der GPU-Auslastung habe leider auch nicht. Die Temperaturen habe ich mit dem AMD GPU Clock Tool gemessen (dem einzigen Overclocker, der mit meiner Karte funzt).
Übrigens passierten die Abstürze bei mir einmal beim Start eines Vollbild-Videos im WMP, dann beim Start der 3D-Vorschau im CCC. Dabei sind sie doch von Direct3D abgesprungen, um genau das zu vermeiden? Naja, im 2D-Takt läuft jetzt alles stabil.
Mysteriöserweise habe ich jetzt nochmal gut 20 ppd mehr als vorher mit 3D-Takt? Vielleicht rechnet FAHMon da aber auch einfach nicht so genau oO
Gruß, Ky
tombman
2008-04-11, 00:45:11
und unter xp mit cat 8.3 sind es pro gpu ~1800ppd
Was macht eine PS3 zum Vergleich?
Krishty
2008-04-11, 00:54:50
Was macht eine PS3 zum Vergleich?
900 ppd - http://folding.stanford.edu/English/FAQ-PS3#ntoc16
HarryHirsch
2008-04-11, 00:56:46
We have picked the PS3 as the natural benchmark machine for PS3 calculations and set its points per day to 900 to reflect this middle ground between speed (faster than CPU, but slower than GPU) and flexibility (more flexible than GPU, less than CPU).
http://folding.stanford.edu/English/FAQ-PS3#ntoc16
der neue gpu client ist aber flexibler als die ps3 (noch)
Krishty
2008-04-11, 01:04:09
der neue gpu client ist aber flexibler als die ps3 (noch)
Hier (http://forums.legitreviews.com/images/random/2900xt_folding_7.jpg) sehen sie das wohl nicht so... (aus der Präsentation "Folding on HD 2900 XT (http://forums.legitreviews.com/about9851.html)")
Gruß, Ky
tombman
2008-04-11, 01:09:34
Na das ist ja blöd wenn außer der cpu alle nur Teile rechnen können. Vergleichbarkeit gibts ja dann gar nicht :(
HarryHirsch
2008-04-11, 01:10:24
schon mal aufs datum geschaut? :D
Der neue GPU-Client bietet aber neben der Unterstützung aktueller und damit leistungsfähigerer Hardware auch Verbesserungen in wissenschaftlicher Hinsicht. Er bietet nun auch die mit dem Folding Client für die Playstation 3 eingeführten Berechnungsmodelle und darüber hinaus sogar neue, die somit sehr bedeutsam für das Projekt sind.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1207851671
reallord
2008-04-11, 01:11:12
Wo seh ich denn diese ominösen ppd?
tombman
2008-04-11, 01:13:12
Die sollen mal einen nvidia client herausbringen :mad:
HarryHirsch
2008-04-11, 01:15:27
na das würd doch eh nur wieder in einer benchmarkschlacht enden :D
Krishty
2008-04-11, 01:16:15
:D
@HarryHirsch: Okay, ich gebe nach weil ich absolut keine Ahnung habe was für Berechnungen da genau durchgeführt werden... :D
Ich kann mir nur iwie nicht vorstellen dass 320 parallele Pipelines dabei flexibler sein sollen als 8 CELLs.
@reallord:
Die ungefähren Punkte pro Tag (ppd) kannst du z.B. mit FahMon (http://fahmon.net/) anzeigen lassen :)
Gruß, Ky
Edit: Ich bin schon gespannt, was sich in den nächsten Tagen so an den Fah-Client-Stats (http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats) tun wird :)
HarryHirsch
2008-04-11, 01:20:46
das sind se ja auch nich, der ps3 client erfährt demnächst ein update
na das würd doch eh nur wieder in einer benchmarkschlacht enden :D
Und noch dazu in einer völlig sinnbefreiten, weil völlig andere APIs verwendet werden würden und evtl. sogar andere Algorithmen.
Krishty
2008-04-11, 01:26:56
das sind se ja auch nich, der ps3 client erfährt demnächst ein updateAh, das wusste ich nicht - ist ja super, wo die PS3 ja jetzt schon den Großteil der Fah-Leistung bringt.
Und noch dazu in einer völlig sinnbefreiten, weil völlig andere APIs verwendet werden würden und evtl. sogar andere Algorithmen.Dafür könnte der eine Treiber aber mal nicht winkelabhängiger filtern als der andere ;)
Wenn dann wird unterfiltert.
reallord
2008-04-11, 09:14:08
Falls es wen interessiert:
~1350 ppd
E2180@3GHz & 3850 256MB....
deekey777
2008-04-11, 11:57:31
na das würd doch eh nur wieder in einer benchmarkschlacht enden :D
Als der GPU-Client veröffentlicht wurde, gab's oft Äußerungen, dass für viele der GPU-Client nur ein weiterer Benchmark sei. Auch die sehr grosszügige Vergabe von PPDs stärkte diesen Eindruck.
Vielleicht spekulierten ATi/AMD und F@H-Macher darauf, dass die Besitzer einer Highendgrafikkarte nur darauf warten, etwas in die Finger zu bekommen, was ihre Grafikkarte belastet. Nur ging die Rechnung nicht auf, denn bis der GPU-Client die 100%-Marke erreicht, vergehen mehrere Stunden. Und die meisten wollen mit ihrem Rechner, in dem eine X1900er steckt, spielen.
Speed ist alles. Mit GPU2 gibt's Speed. Wenn ich so etwas sehe:
[17:36:54] Completed 44%
[17:39:01] Completed 45%
[17:41:09] Completed 46%
[17:43:15] Completed 47%
[17:45:23] Completed 48%
[17:47:33] Completed 49%
[17:49:41] Completed 50%
[17:51:50] Completed 51%
[17:53:56] Completed 52%
[17:56:04] Completed 53%
[17:58:11] Completed 54%
... und das bei einer HD2600Pro, kommt schon ein komisches Gefühl auf, wenn meine X1950GT für ein Prozent etwa 10 Minuten braucht.
Falls es wen interessiert:
~1350 ppd
E2180@3GHz & 3850 256MB....
Nett. Viel netter ist, dass der GPU2-Client auf einer Grafikkarte mit 256 MB läuft, denn GPU1 hätte seine Probleme mit solchen.
HarryHirsch
2008-04-11, 12:05:04
ich hab den längsten :biggrin:
http://www.abload.de/img/cropimageuim.jpg (http://www.abload.de/image.php?img=cropimageuim.jpg)
... und das bei einer HD2600Pro, kommt schon ein komisches Gefühl auf, wenn meine X1950GT für ein Prozent etwa 10 Minuten braucht.
Wußtest du nicht, dass der neue GPU-Client vieles anders macht? Das sind Apfelschalen mit Orangenaufklebern, die du gerade vergleichst.
deekey777
2008-04-11, 12:29:54
Wußtest du nicht, dass der neue GPU-Client vieles anders macht? Das sind Apfelschalen mit Orangenaufklebern, die du gerade vergleichst.
Wenn du nicht nur mein einziges Posting gelesen hättest, sondern den ganzen Thread, dann wüßtest du, dass ich es weiß.
Krishty
2008-04-11, 13:15:41
Ich habe mal mit Aeroglass herumgespielt:
- ohne Aero: 970 ppd
- mit Aero: 1020 ppd
Es sind zwar nur 5%, aber auf den ganzen Tag kommt da schon gut Leistung zusammen. Unterstützt meine Annahme, dass meine CPU limitiert. Ich hoffe, dass ein Client mit Multithreading released wird...
Gruß, Ky
HarryHirsch
2008-04-12, 05:51:26
ist nicht mehr weit bis zur weltherrschaft :ugly:
10.04.08
http://www.abload.de/img/fahstats10.04.0879v.jpg (http://www.abload.de/image.php?img=fahstats10.04.0879v.jpg)
11.04.08
http://www.abload.de/img/fahstats11.04.08egb.jpg (http://www.abload.de/image.php?img=fahstats11.04.08egb.jpg)
deekey777
2008-04-12, 11:23:36
ist nicht mehr weit bis zur weltherrschaft :ugly:
10.04.08
http://www.abload.de/img/fahstats10.04.0879v.jpg (http://www.abload.de/image.php?img=fahstats10.04.0879v.jpg)
11.04.08
http://www.abload.de/img/fahstats11.04.08egb.jpg (http://www.abload.de/image.php?img=fahstats11.04.08egb.jpg)
Das Problem ist: Wieviele werden es durchhalten? In der ersten Woche waren auch um 800 GPU1-Clients aktiv, nach und nach sank die Zahl und pendelte sich bei etwa 450 GPUs ein. Pro GPU-Client hat sich die GFLOP-Leistung nur etwas verändert.
Captain Future
2008-04-12, 13:34:03
Pro GPU-Client hat sich die GFLOP-Leistung nur etwas verändert.
Wie bemißt du das? PPD? WU/d? Wieviel FLOPs stecken in einem GPU-Client?
deekey777
2008-04-12, 13:52:31
Wie bemißt du das? PPD? WU/d? Wieviel FLOPs stecken in einem GPU-Client?
Die FLOP-Leistung aller Clients durch die Anzahl der Clients. Ja, ist trivial. :biggrin:
Captain Future
2008-04-12, 15:30:51
Die FLOP-Leistung aller Clients durch die Anzahl der Clients. Ja, ist trivial. :biggrin:
Ja, ziemlich. :D
Die akkumulierte FLOP-Leistung (eines unbestimmten Zeitraums) durch die Anzahl der in den letzten 50 Tagen aktiven GPUs zu teilen ist schon.... genial.
deekey777
2008-04-12, 15:33:19
Ja, ziemlich. :D
Die akkumulierte FLOP-Leistung (eines unbestimmten Zeitraums) durch die Anzahl der in den letzten 50 Tagen aktiven GPUs zu teilen ist schon.... genial.
Ist nicht auf meinem Mist gewachsen. :P;D
Krishty
2008-04-12, 15:34:32
Im Moment werden die GPUs auch noch alles andere als optimal ausgenutzt - 20 bis 50% werden die in den nächsten Monaten sicher noch rausholen können. Das Ziel liegt ja im Bereich GigaFLOPS pro Client.
Übrigens sind meine ppd in den letzten Tagen kontinuierlich gestiegen und liegen nun schon bei 1180 :) Konnte sowas noch jemand beobachten?
Gruß, Ky
Captain Future
2008-04-12, 15:36:51
Ist nicht auf meinem Mist gewachsen. :P;D
Komisch, ich dachte, ich hätte dich zitiert...
Added:
...denn von Stanford wird solcher Unsinn ausdrücklich nicht empfohlen:
"How should the FLOPS per client be interpreted?
We stress that one should not divide "current TFLOPS" by "active clients" to estimate the performance of that hardware running without interruption. Note that if donors suspend the FAH client (e.g. to play a game, watch a movie, etc) they enlarge the time between getting the WU and delivering the result. This in turn reduces the FLOPS value, as more time was needed to deliver the result. "
Übrigens sind meine ppd in den letzten Tagen kontinuierlich gestiegen und liegen nun schon bei 1180 :) Konnte sowas noch jemand beobachten?
Gruß, Ky
Meine liegen mit meiner übertakteten HD2900 XT bei gut 1900 ppd. Da ist also wohl noch Luft.
HarryHirsch
2008-04-12, 17:22:31
Im Moment werden die GPUs auch noch alles andere als optimal ausgenutzt - 20 bis 50% werden die in den nächsten Monaten sicher noch rausholen können. Das Ziel liegt ja im Bereich GigaFLOPS pro Client.
Übrigens sind meine ppd in den letzten Tagen kontinuierlich gestiegen und liegen nun schon bei 1180 :) Konnte sowas noch jemand beobachten?
Gruß, Ky
jo, die scheinen die wu's ständig zu optimieren. ich hab jetzt pro gpu ~2000ppd
Nochmal 20 TeraFLOPS mehr...
HarryHirsch
2008-04-12, 21:33:10
der client scheint ziemlich krank auf core takt abzugehen.
23mhz weniger = ~300ppd weniger :|
deekey777
2008-04-12, 21:58:02
Komisch, ich dachte, ich hätte dich zitiert...
Added:
...denn von Stanford wird solcher Unsinn ausdrücklich nicht empfohlen:
"How should the FLOPS per client be interpreted?
We stress that one should not divide "current TFLOPS" by "active clients" to estimate the performance of that hardware running without interruption. Note that if donors suspend the FAH client (e.g. to play a game, watch a movie, etc) they enlarge the time between getting the WU and delivering the result. This in turn reduces the FLOPS value, as more time was needed to deliver the result. "
Die Idee dieser Zählweise kommt nicht von mir. =)
Aber sie verschafft schon einen Überblick, was die eingesetzte HW im Durchschnitt so schafft. Das Problem des GPU1-Clients war einmal, dass die HW bei der Software-Kette bei Weitem nicht ausgereizt wurde, dazu kommt noch ein hoher Treiberoverhead durch die Nutzung von DX. Mit CAL/Brook+ kann die HW besser angesprochen werden, dazu fällt der Treiberoverhead weg. Leider gibt es bei GPU2-Client eine Abhängigkeit von der benutzten CPU.
Captain Future
2008-04-13, 10:38:32
der client scheint ziemlich krank auf core takt abzugehen.
23mhz weniger = ~300ppd weniger :|
Und überhaupt nicht auf VRAM. Meine ppd sind gleich geblieben, obwohl ich den ramtakt von 1035 auf 520 runtergenommen habe. 'compute bound' nennt man das wohl.
Wäre interessant, wie weit runter das so bleibt. Vielleicht kann ja einer der HD3000-Besitzer mit nur 256 Bit das mal ausprobieren - selbst mit 520 MHz hab ich ja nch über 66 gb/s
diedl
2008-04-13, 11:06:43
HD3870 GDDR3 Q6600 2700 MHz
Habe im CCC von 850/1050 auf 650/950 runter getaktet.
ppd bleiben gleich. (1750)
Einziger Unterschied,
die GPU-Auslastung stieg von ~70% auf ~92%.
Die Temperatur ging dabei um 4°C zurück.
mfg diedl
HarryHirsch
2008-04-13, 11:16:13
also die gpu last ist bei mit gleich geblieben (~85%)
was mir aufgefallen ist: die vom fah monitor errechneten ppd scheinen nicht zu stimmen, laut meinen stats mach ich nicht mal die hälte der fahmon ppd
diedl
2008-04-13, 11:31:35
Bei mir skaliert die GPU-Auslastung gut mit dem GPU aber auch
CPU-Takt.
Vista 64 SP1
Die 2,7 GHz reichen wohl nicht aus um die 3870 voll auszulasten.
mfg diedl
HarryHirsch
2008-04-13, 21:26:53
http://folding.typepad.com/news/2008/04/how-the-gpu2-co.html
na hoffentlich gibs für die wu's auch die doppelten points
Krishty
2008-04-13, 21:54:43
Fände ich sehr angebracht, die 97-Punkte-Einheiten sind ja ein Witz.
Wenn das allerdings in der gleichen Zeit läuft wie die 97er könnte es im schlimmsten Fall aber doch dabei bleiben...
Übrigens hat sich die Gesamt-Rechenleistung der GPU-Clients jetzt im Vergleich zum GPU1-Client verdreifacht (von 29 auf 86) :)
HarryHirsch
2008-04-14, 20:21:24
eine meiner beiden hat gerade ne wu projekt 4701 am wickel.
fahmon 2.3.2b kennt die nich und neue projektdaten gibt es auch nicht. ob des schon die neuen sind? ich brauche input!
Krishty
2008-04-14, 21:09:40
Ich habe vor 30 Sekunden die 4700 bekommen, FAHMon (2.3.2b) hat seine Projektdateien automatisch aktualisiert und erkennt es seitdem als GPUv2 GROMACS, 97 Punkte.
Gruß, Ky
diedl
2008-04-20, 15:52:11
cat 8.5beta (8.49)
Zur Zeit laufen ohne mein Zutun 2 Instanzen gleichzeitig
auf einer 3870.
CPU immer noch 2,7 GHz
GPU bei 850 MHz zu 95% ausgelastet.
Allerdings mag das Logfile nicht so richtig. :redface:
Ich lass mal trotzdem durchlaufen um zu sehen
ob die Wu anerkannt werden.
mfg diedl
HarryHirsch
2008-04-20, 16:08:57
also bei mir produziert der nur müll, hast du vista oder xp?
btw.
http://www.abload.de/img/cropimagecmg.jpg (http://www.abload.de/image.php?img=cropimagecmg.jpg)
diedl
2008-04-20, 16:10:25
Vista 64 SP1
So, das erste WU ist raus, das Zweite habe ich mal
zeitweise pausieren lassen, damit nicht beides gleichzeitig gesendet wird.
Bis jetzt noch keine Fehlermeldungen, und am nächsten wird schon gearbeitet.
WU Nr. 2 :up:
Mal sehen was die nächste Punkteaktualiesierung sagt.
:uponder: Es wird scheinbar 2x die gleiche WU berechnet,
wovon aber nur eine gewertet wird.
Da das Logfile aber nicht wirklich zu gebrauchen ist, kann es auch einen
anderen Grund geben, warum nur jedes 2.te WU gewertet wird.
In FahMon jetzt doch noch was gefunden.
____________________________________________________
Finished Work Unit:
[20:10:45] - Reading up to 1434888 from "work/wudata_02.trr": Read 1434888
[20:10:45] - Checksum of file (work/wudata_02.trr) read from disk doesn't match
[20:10:45]
[20:10:45] Folding@home Core Shutdown: FILE_IO_ERROR
[20:10:49] CoreStatus = 75 (117)
[20:10:49] Error opening or reading from a file.
[20:10:49] Deleting current work unit & continuing...
________________________________________________________
Grundsätzlich scheinen zwei Berechnungen gleichzeitig auf einer GPU zu gehen,
die Daten werden aber noch nirgendwo abgelegt.
mfg diedl
AnarchX
2008-05-23, 08:07:55
... und noch schneller falten GF8 und GF9:
http://img377.imageshack.us/img377/9229/folding170cdddb4gc2.jpg (http://imageshack.us)
http://www.pcper.com/comments.php?nid=5679
Die ATi-Karten kommen ja momentan nur auf durchschnittliche 70 GFLOPs pro Karte:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
... und noch schneller falten GF8 und GF9:
http://img377.imageshack.us/img377/9229/folding170cdddb4gc2.jpg (http://imageshack.us)
http://www.pcper.com/comments.php?nid=5679
Die ATi-Karten kommen ja momentan nur auf durchschnittliche 70 GFLOPs pro Karte:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
Es werden auch deutlich mehr High-End-Karten von nV im Umlauf sein. Das bisschen mehr lässt mich nicht gerade vom Hocker fallen.
deekey777
2008-05-23, 11:17:08
... und noch schneller falten GF8 und GF9:
http://img377.imageshack.us/img377/9229/folding170cdddb4gc2.jpg (http://imageshack.us)
http://www.pcper.com/comments.php?nid=5679
Die ATi-Karten kommen ja momentan nur auf durchschnittliche 70 GFLOPs pro Karte:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
Nur so als Denkanstoß:
Als es noch keinen GPU2-Client gab und der GPU-Client auf der R500-Generation (hauptsächlich R580 und RV570, aber sonst die volle Palette von R520 über RV530/535, RV560/570 bis R580), erreichte man damit etwa 60 GFLOPs per Karte.
Jetzt kannst du dir denken, dass dein "nur auf durchschnittliche 70 GLOPs" für den Eimer ist, da dahinter null Aussagekraft steckt (es sei denn, man will damit jemanden ärgern).
deekey777
2008-05-23, 22:24:22
Jetzt offiziell:
GPU news (about GPU1, GPU2, & NVIDIA support) (http://folding.typepad.com/news/2008/05/gpu-news-gpu1-g.html)
We've been working with NVIDIA to develop a GPU2 core for NVIDIA hardware. So far, the code is progressing well and the new GPU2/NVIDIA core is now in closed beta testing. It's hard to tell if there will be any show stoppers (there's lots of things that could go wrong in distributed computing on GPU's), but so far so good. We're very excited about the performance (more details on that later). We hope to have a public beta in the next few weeks.
Und allgemeines Zeug:
We are beta testing a new visualization for GPU2/ATI. This new code provides real time visualization for the GPU2 core, similar to what we have for the PS3. More information can be found on our FAQ. We plan to release a similar visualizer for the GPU2/NVIDIA core as well when it's ready.
Moralelastix
2008-06-13, 23:39:13
Nvidia and Stanford finalizing Folding@Home client for GeForce GPUs
http://www.tgdaily.com/content/view/37931/113/
@Mods
Aktualisiert mal bitte den Fred Titel.
deekey777
2008-06-15, 18:33:44
The unveiling of the client is set for the next week as part of the launch of Nvidia’s GT200 GPU series. Owning such a card will have its benefits in Folding@Home and will outrun Radeon 3870 cards. The new GeForce cards are expected to hit more than 650 nanoseconds of protein simulation in a single day, while the Radeon HD 3870 is stuck at about 170 ns. The Playstation 3 is able to produce "only" 100 ns of simulation, while a quad-core CPU creates an output of just four nanoseconds. For those who are keeping count: The GeForce GPU will be about 163 times faster than a quad-core processor in this specific application
http://foldingforum.org/viewtopic.php?f=16&t=3117#p28792
PS Note that Tom's H numbers are a bit misleading. We're not getting 650ns/day (yet) on the gtx280 (more like 550) and we're now getting 250ns/day on 3870's in the lab (perhaps 300ns/day in time), and the 3870's are the previous gen ATI cards. The gtx280 is going to be really great at folding though.
AnarchX
2008-06-15, 18:46:55
Jetzt bleibt nur noch die Frage wie RV770 sich mit seinen >1TFLOPs schlägt und ob GTX 200 dagegen wirklich noch so "great" ist.
deekey777
2008-06-15, 20:41:18
Ich habe zwar die FAQs zum GPU2/Nvidia-Client gelesen, aber das Bild nicht betrachtet...
http://folding.stanford.edu/English/FAQ-NVIDIA#ntoc10
AnarchX
2008-06-15, 20:47:03
Netter Fund.
Aber wieso erreicht eine 9600GT mit ihren 200GFLOPs MADD 317ns, wo oben davon gesprochen wird, dass die GTX 280 nur 550-650 erreicht und man bei RV670 hofft mal auf 300 zu kommen?:|
davidzo
2008-06-15, 21:23:39
Netter Fund.
Aber wieso erreicht eine 9600GT mit ihren 200GFLOPs MADD 317ns, wo oben davon gesprochen wird, dass die GTX 280 nur 550-650 erreicht und man bei RV670 hofft mal auf 300 zu kommen?:|
hm, für mich deutet das irgendwie auf eine Bandbreitenlimitierung hin. Denn das ist das 256bit interface einzige was g94 und rv670 gemeinsam haben.
weil g94 bandbreite ~= rv670(pro) bandbreite
und gt200 bandbreite ~= rv670(xt) *2 bandbreite
würde eventuell erklären wieso man sich entschieden hat lieber die g94 werte zu veröffentlichen anstatt die wohl eher enttäuschenden (weil identischen) g92 werte. Das macht für mich jedenfalls perfekt sinn. demnach dürfte der rv770 dann auf rund 500gflop/s kommen.
Im übrigen sagt der obige Link relativ deutlich, dass nicht die ati-grafikkarte die performance des bisherigen folding-clients zurückgehalten hat, sondern die directX schnittstelle üder die das ganze programmiert war. Der performancevorteil der neuen Software wird in erster Linie zugeschrieben, weil man jetzt direkt für die hardwaregeneration programmieren könne (CUDA). In den vorherigen releases hatten die teilweise 30fachen performancegewinn bei gleicher hardware, wenn dass nicht mal was sagt über effizientes/ineffizientes programmieren...
deekey777
2008-06-15, 21:28:27
Netter Fund.
Aber wieso erreicht eine 9600GT mit ihren 200GFLOPs MADD 317ns, wo oben davon gesprochen wird, dass die GTX 280 nur 550-650 erreicht und man bei RV670 hofft mal auf 300 zu kommen?:|
Es ist nicht undenkbar, dass die dort gefalteten Proteine extrem einfach waren, nur um die Software, die Ergebnisse und natürlich die Stabilität zu prüfen.
Aber wieso erreicht eine 9600GT mit ihren 200GFLOPs MADD 317ns, wo oben davon gesprochen wird, dass die GTX 280 nur 550-650 erreicht und man bei RV670 hofft mal auf 300 zu kommen?:|
es wäre durchaus denkbar, dass die skalaren recheneinheiten von großem vorteil sind.
dildo4u
2008-06-17, 00:25:18
Nvidia GPU Client funzt nur mit dem 177.34.
http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
TheBrother
2008-06-17, 00:29:16
Nvidia GPU Client funzt nur mit dem 177.34.
http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
höi, ich hab nur etwas länger gebraucht um den Thread hier zu finden ;)
gemein wenn man 1 min zu spät kommt :)
http://img516.imageshack.us/img516/8149/foldingwj5.th.jpg (http://img516.imageshack.us/my.php?image=foldingwj5.jpg)
aber schon sehr krass...
mit dem 177.35er passen auch die Werte:
http://img74.imageshack.us/img74/9396/foldingix4.th.jpg (http://img74.imageshack.us/my.php?image=foldingix4.jpg)
deekey777
2008-06-17, 16:58:59
Hab's auch zum Laufen gebracht: Einmal habe ich den 177.35 installiert, wobei ich mir nicht sicher bin, ob die darauf folgende Installation des CUDA-Toolkits 2.0 Beta nicht ausschlagende Komponente war (XP)
Es werden 104/105 ns angezeigt (3600+ X2, 8600GT mit 1 GB DDR2 :ulol:).
Moralelastix
2008-06-17, 17:24:29
Hier läufts auch ohne Probleme mit ner G92 GTS @ 450 ns/day mit dem 177.35
Team "WhoopAss" ich komme:biggrin:
Nvidia GPU Client funzt nur mit dem 177.34.
genauer gesagt funktioniert es nur mit einem CUDA-treiber und der 177.34 ist einer der ersten mit CUDA-unterstützung. (abgesehen von den treibern auf der CUDA-developer-seite)
Hier läufts auch ohne Probleme mit ner G92 GTS @ 450 ns/day mit dem 177.35
garnicht schlecht, GTX280 erreicht laut computerbase gerade mal 650.
Moralelastix
2008-06-17, 17:30:38
Jo, dacht ich mir auch grad beim Betrachten der Screenshots von Brother :biggrin:
Wenn die nur beim Video encoden auch so gut wird brauch ich keinen GT200.
Wieviel schafft ein Quadcore im Vergleich?
dildo4u
2008-06-17, 17:35:21
Gerade beim G200 wird noch viel Luft nach oben sein mit Optemierungen.Bin gespannt ob und wie das ganze F@H Programm von Nvidia beworben wird und ob so viele GPUs dazu kommen um es mit dem PS3 Netzwerk aufnehmen zu können. *g*
http://s6.directupload.net/images/080617/68vgz5bw.jpg
Wieviel schafft ein Quadcore im Vergleich?
45ns/Day.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/29/#abschnitt_gpucomputing_und_cuda
Moralelastix
2008-06-17, 17:44:49
45 ns / day?
Da hält bestimmt noch ne 8000 er Chipsatzgrafik mit.
TheBrother
2008-06-17, 17:48:19
Jo, dacht ich mir auch grad beim Betrachten der Screenshots von Brother :biggrin:
Wenn man die graphische Anzeige zu macht sinds so 650-680 ns / Tag Die Anzeige bremst halt ;)
Gruß
Brother
Moralelastix
2008-06-17, 17:50:39
Wo kannst du die Performance sehen wenn der Viewer zu is?
TheBrother
2008-06-17, 18:09:47
Wo kannst du die Performance sehen wenn der Viewer zu is?
Im log file steht ja genau drinnen wann wieviel % erreicht wurden. so kann man sich den Wert gut ausrechnen.
Gruß
Brother
Da hält bestimmt noch ne 8000 er Chipsatzgrafik mit.
sicher nicht, mit nem quadcore bekommt wahrscheinlich sogar die 8600 probleme.
Hier läufts auch ohne Probleme mit ner G92 GTS @ 450 ns/day mit dem 177.35
Team "WhoopAss" ich komme:biggrin:
wieso team "WhoopAss"?
gibt auch auch das Team "3DCenter.de"
Team ID 34099
wär echt mal nice das von platz 540 mit geballter GPU power hochzupushen :D
Moralelastix
2008-06-17, 19:05:11
Mal ehrlich wer wird die GPU regelmässig das Zeug die Nacht über rechnen lassen.
Im Winter kann ich mir damit vielleicht noch teuer die Bude heizen aber im Sommer? Nee Danke!
Ich lass es vielleicht ab und zu mal laufen um die Graka vor dem Zocken aufzuwärmen aber mehr auch nich.
Aber jedes bisschen zählt.
Mal ehrlich wer wird die GPU regelmässig das Zeug die Nacht über rechnen lassen.
Im Winter kann ich mir damit vielleicht noch teuer die Bude heizen aber im Sommer? Nee Danke!
Ich lass es vielleicht ab und zu mal laufen um die Graka vor dem Zocken aufzuwärmen aber mehr auch nich.
Aber jedes bisschen zählt.
naja extra den rechner anlassen würde ich auch nicht aber wenn man eh rumsurft kann der ja auch proteine falten
und so warm kanns nicht werden, da das ding ja nur die ALUs benutzt, das macht bei mir 4°C GPU temperatur aus
Moralelastix
2008-06-17, 19:28:31
Vier Grad bei der GPU?
Hier steigt die Temperatur von 50°C auf 74°C bei der GPU
Mal zum Vergleich: Wenn ich Crysis zock wird die 84°C warm.
Und die CPU(Dualcore @ 3GHz) wird permanent über 50% ausgelastet.
Wenn ich den Viewer zumache dann wirds noch mehr.
Vielleicht is an dem Client ja noch was faul?
Vier Grad bei der GPU?
Hier steigt die Temperatur von 50°C auf 74°C bei der GPU
Mal zum Vergleich: Wenn ich Crysis zock wird die 84°C warm.
Und die CPU(Dualcore @ 3GHz) wird permanent über 50% ausgelastet.
Wenn ich den Viewer zumache dann wirds noch mehr.
Vielleicht is an dem Client ja noch was faul?
accelero S1 zwei 120x120 lüfter drauf....wird mit folding@home 50°C bei 1.32volt auf der gpu
bei crysis hab ich glaube ich um die 60°C
und ja die cpu wird ganz schön belastet aber naja zum surfen reicht der rest ja noch locker :D
den viewer solltest du immer schliessen dann geht es noch schneller und belastet weniger unnütz TMUs etc. von der GPU
zum überwachen und für die statistik gibts das FahMon Tool bzw. F@hMon
DevilX
2008-06-17, 19:34:12
Gibts den Client für Nvidia schon? hab den nicht gefunden.
Gauron Kampeck
2008-06-17, 19:42:21
Bei mir stockt die 2D-Anzeige unter Vista (non-Aero), wenn ich den Client im Hintergrund laufen lasse.
Was die Geschwindigkeit angeht, zeigt mir der Viewer ca. 320 ns/d an (8800GTS 320).
da gibts in den einstellungen nen regler "CPU usage" (wohl eher GPU usage) den kannst du ja mal etwas runterregeln
Gibts den Client für Nvidia schon? hab den nicht gefunden.
http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
lies das pdf da drin..und du brauchst den 177.26 bzw. 177.35 nvidia treiber und eventuell noch cuda von der nvidia seite
Gauron Kampeck
2008-06-17, 19:50:57
da gibts in den einstellungen nen regler "CPU usage" (wohl eher GPU usage) den kannst du ja mal etwas runterregeln
Ah, danke! Ist direkt deutlich angenehmer.
Ah, danke! Ist direkt deutlich angenehmer.
hast du auch den anderen "viewer" da kopiert (sprich nach der anleitung im pdf)? nicht das das ding bei dir nur auf der cpu abläuft
Gauron Kampeck
2008-06-17, 20:07:00
Hab ich auch vergessen :redface:, aber ich hab den Viewer eh nicht über das Icon in der Taskleiste gestartet sondern direkt über die exe, die im zip-File dabei war. Insofern hatte ich das gleiche Ergebnis wie jetzt mit kopiertem Viewer und Icon->Display.
das interessante is ja...ich kann GRID in 1280x1024 AA=4xS AF=16x bei 30FPS (für 8xSQ reichts nicht mehr das lief genauso wie 4xS jetzt) spielen und trotzdem noch nebenher Proteine mit 200ns/day also knapp 5 mal schneller wie ein Quadcore falten :eek:
ich weiß nicht inwieweit man daraus über physik berechnung spekulieren kann, aber es macht für mich den anschein wenn nvidia wirklich physX per CUDA auf der gpu laufen lässt, und ein spiel das unterstützt (z.b. cellfactor etc.) könnte das tatsächlich deutlich schneller ablaufen als auf einer cpu und das ohne die gpu großartig zu blockieren :eek:
deekey777
2008-06-17, 21:07:23
http://folding.typepad.com/news/2008/06/gpu2-client-for-nvidia.html#comments
http://foldingforum.org/viewtopic.php?f=43&t=3186
We're happy to roll out the beta nVidia client, it's a nice beta, and so here we go...
First and before you do anything else, LOOK OVER THE FAQ. Lots of important things in there that you'll need to know if you do anything beyond run the installer and run it.
Drivers
You MUST use the 174.55 version of the drivers for now. You do not need the other files, just the drivers.
Known bugs:
It's a beta, and yes we meant that, not like Google but like software engineers - expect glitches and updates. The main thing is that the viewer will not work, as we're in the middle of changing how the live coordinates get to the viewer. Other then that, visit our nVidia beta Forum to see what's happening.
Download:
6.12 beta 6
ist der neuer als der geleakte nvidia review client?
könnte man ja mal wieder die 3dcenter folding gruppe neubeleben
die nvidia whoopass sind in einer woche um 2200 plätze gestiegen :D
deekey777
2008-06-17, 22:36:10
Ich glaub, ist neuer, aber definitiv ist Viewer.exe deutlich schneller (sieht auch anders aus, andere Anzeigen).
Ich kann diesen nur empfehlen. Nur will F@H-Monitor bei mir nicht mit dem Client zusammenarbeiten. ;(
Ich glaub, ist neuer, aber definitiv ist Viewer.exe deutlich schneller (sieht auch anders aus, andere Anzeigen).
Ich kann diesen nur empfehlen. Nur will F@H-Monitor bei mir nicht mit dem Client zusammenarbeiten. ;(
du must das folding@home verzeichniss in deinem benutzerverzeichniss\app,,, angeben
und nicht wo du folding@home hin installiert hast
deekey777
2008-06-17, 22:56:09
du must das folding@home verzeichniss in deinem benutzerverzeichniss\app,,, angeben
und nicht wo du folding@home hin installiert hast
Danke. :biggrin:
Projekt : 5001
Core : GPUv2 Gromacs
Frames : 100
Punkte : 98
-- Arnoldie --
Minimale Frame-Dauer : 1mn 10s - 1209,60 ppd
Gemittelte Frame-Dauer : 1mn 10s - 1209,60 ppd
Aktuelle Frame-Dauer : 1mn 10s - 1209,60 ppd
L3F-Frame-Dauer : 1mn 10s - 1209,60 ppd
Effektive Frame-Dauer : 4mn 20s - 325,66 ppd
ich bekomm mit ner 8800GT fast 500ns/tag, hat NV da noch was am treiber gedreht oder wie, da ist ja die 280GTX nur geringfügig schneller.
deekey777
2008-06-17, 23:38:06
ich bekomm mit ner 8800GT fast 500ns/tag, hat NV da noch was am treiber gedreht oder wie, da ist ja die 280GTX nur geringfügig schneller.
ns? Das klingt nicht nach dem offiziellen GPU-Client, lade lieber diesen herunter. :)
DevilX
2008-06-17, 23:55:11
was habt ihr denn so bei mir sagt er ca 1365 iter /sec
ns? Das klingt nicht nach dem offiziellen GPU-Client, lade lieber diesen herunter. :)
es ist dieser hier: http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
die 500 ns/day sind ohne anzeige, in der anzeige sind es ~410.
deekey777
2008-06-17, 23:59:38
was habt ihr denn so bei mir sagt er ca 1365 iter /sec
Bei mir sind's um 500.
Mach lieber die Visualisierung aus, da sie zw. 20 und 90 Prozent der GPU-Leistung kostet, nimm lieber F@hmon: http://fahinfo.org/
es ist dieser hier: http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
die 500 ns/day sind ohne anzeige, in der anzeige sind es ~410.
Nimm diesen Client: http://foldingforum.org/viewtopic.php?f=43&t=3186
ich bekomm mit ner 8800GT fast 500ns/tag, hat NV da noch was am treiber gedreht oder wie, da ist ja die 280GTX nur geringfügig schneller.
was hast du für ne cpu? ich hab das gefühl das meine cpu die 88Gt extrem ausbremst....
halber cpu takt war nur noch 65% folding@home performance
deekey777
2008-06-18, 00:31:57
Was hast du bei der CPU eingestellt? 100% sind zwar das Beste, aber zu viel des Guten, bei mir sind 85%.
tombman
2008-06-18, 06:24:23
Wenn man im viewer einige Zeit wartet, schaltet sich die Visualisierung aus ;)
Dann sinds bei mir
2800 iter/sec :eek:
(single 8800GTX oc)
dieser client
http://foldingforum.org/viewtopic.php?f=43&t=3186
p.s. wie bekommt man diese "ns" Anzeige? Zusatztools?
HarryHirsch
2008-06-18, 07:19:22
Wenn man im viewer einige Zeit wartet, schaltet sich die Visualisierung aus ;)
Dann sinds bei mir
2800 iter/sec :eek:
(single 8800GTX oc)
dieser client
http://foldingforum.org/viewtopic.php?f=43&t=3186
p.s. wie bekommt man diese "ns" Anzeige? Zusatztools?
drück mal die f tasten durch da kommen verschiedene ansichten
was mich jetzt wundert ist das der neue gpu2 6.12 beta 6 für nvidia und amd ist :confused:
tombman
2008-06-18, 07:21:23
drück mal die f tasten durch da kommen verschiedene ansichten
was mich jetzt wundert ist das der neue gpu2 6.12 beta 6 für nvidia und amd ist :confused:
Jo, die bin ich ja durchgegangen, aber von der "ns" Anzeige keine Spur, ich bekomme nur die "iter" Anzeige.
HarryHirsch
2008-06-18, 07:31:50
könntest ja mal dieses monitoring tool (http://fahmon.net/) runter laden und gucken wievel ppd du hast
2800 iter :eek: bei mir schwankt es zwischen 300-600 :frown:
tombman
2008-06-18, 08:41:16
Ich will diese verf...te ns Anzeige und keine ppd und keine iter :mad:
HarryHirsch
2008-06-18, 08:53:14
welchen client benutzt du denn?
den: http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip
oder den:http://www.stanford.edu/group/pandegroup/folding/release/Folding@home-GPU-systray-612b6.msi
beim erst genannten sollte die ns anzeige bei sein
tombman
2008-06-18, 09:13:08
HABS GESCHAFFT!!!
Man sollte halt das .pdf lesen, welches dabei ist :rolleyes:
(da muß man einiges installieren/kopieren etc)
Btw: >400ns (8800GTX @ 621/1000/1512)
http://www.abload.de/img/foldhnz.jpg
Also wenn die GTX280 da nur 5xx ns schafft ist das aber schwach
TheBrother
2008-06-18, 10:47:53
HABS GESCHAFFT!!!
Man sollte halt das .pdf lesen, welches dabei ist :rolleyes:
(da muß man einiges installieren/kopieren etc)
Btw: >400ns (8800GTX @ 621/1000/1512)
http://www.abload.de/img/foldhnz.jpg
Also wenn die GTX280 da nur 5xx ns schafft ist das aber schwach
Ich schaff 650-700 ns
tombman
2008-06-18, 11:15:23
Ich schaff 650-700 ns
Mit viewer oder ohne? ;) Wenn mit -> dann screenshot :)
der client der für die reviews bestimmt war ist um einiges schneller als von der stanford uni seite
http://img152.imageshack.us/img152/2530/lolvh5.jpg
haha tombman gepwnd :D
tombman
2008-06-18, 11:40:22
der client der für die reviews bestimmt war ist um einiges schneller als von der stanford uni seite
Mann, echt schwer zu lesen, wenn jemand keine Interpunktion nutzt.
"Der client, der für die reviews bestimmt war, ist um einiges schneller als jener der Stanford Uni-Seite."
Sieht doch gleich besser aus, oder?
Moralelastix
2008-06-18, 11:45:14
Du dast doch für die 808 ns/day die Graka übertaktet oder liegt das nur an dem Review Client?
Wo gibts diesen gepimten Review Client?
AnarchX
2008-06-18, 14:39:13
PCGH erreicht mit einer GTX 280 1980 ns / day:
http://www.pcgameshardware.de/?article_id=647994
... im Vergleich erreichen sie mit einer 8800 Ultra 515ns.
Da offenbart sich wohl langsam G200.
was hast du für ne cpu? ich hab das gefühl das meine cpu die 88Gt extrem ausbremst....
halber cpu takt war nur noch 65% folding@home performance
die cpu ist vollkommen egal, auslastung <10%.
HarryHirsch
2008-06-18, 14:47:29
lol 4500 ppd mit EINER 8800gt :|
nach welchen vorgaben werden denn die punkte vergeben?
more cash more points?
nee das is schon realistisch....
ich hab mit meiner 88GT um die 6000 ppd und mit meiner cpu komme ich auf 170ppd ca.
schaut man sich das mal an sieht man aber auch das die cpu arschlangsam arbeitet
die cpu ist vollkommen egal, auslastung <10%.
das ist sie erst ab dem 177.35 treiber (der ja endlich funzt bei mir)
beim 177.26 treiber hatte ich enorme cpu auslastung
HarryHirsch
2008-06-18, 14:52:25
nix is realistisch ich komm mit 2 hd4870 gerade mal auf 4000 ppd
AnarchX
2008-06-18, 14:54:01
Da arbeitet der CUDA-Client momentan wohl einfach deutlich effizienter und die skalare Architektur macht sich wohl auch bemerkbar.
btw.
Wohl 2x 3870 oder? ;)
HarryHirsch
2008-06-18, 14:56:00
wer es glaubt...
die haben bestimmt ordentlich kohle "gestifftet"
da platzt mir der ars.. wenn ich sowas seh
edit:
ja 3870
AnarchX
2008-06-18, 15:04:53
Da bist du offenbar jemand, der nicht verstanden hat, worum es bei F@H geht.
HarryHirsch
2008-06-18, 15:08:49
wenn du das so siehst...
wer es glaubt...
die haben bestimmt ordentlich kohle "gestifftet"
da platzt mir der ars.. wenn ich sowas seh
edit:
ja 3870
naja was ich auf jedenfall sagen kann is das ich mit der 88GT und dem 177.26 treiber nur die hälfte hatte
die performance hat sich mit wechsel auf den 177.35 verdoppelt
und vorher hatte ich starke cpu auslastung (lief vielleicht einiges noch auf der cpu ab) und jetzt praktisch sogut wie keine....
ausserdem können die vielleicht für reine cuda berechnungen ihr eines MUL voll mitbenutzen was in 3d applikationen nur ganz selten verwendet werden kann
ps: wie sollte das "betrügen" ablaufen? das f@h project schneidet sich doch ins eigene fleisch wenn sie ati gpus auf die hälfte ausbremsen
HarryHirsch
2008-06-18, 15:15:14
ps: wie sollte das "betrügen" ablaufen? das f@h project schneidet sich doch ins eigene fleisch wenn sie ati gpus auf die hälfte ausbremsen
die ppd bei ati werden nach einem gemittelten wert der hd3850 vergeben
wie das jetzt bei nvidia ist... keine ahnung, gab es auch noch nichts zu lesen
nix is realistisch ich komm mit 2 hd4870 gerade mal auf 4000 ppd
der ATI-client arbeitet über DirectX, dadurch ist er schon mal um längen langsamer als der CUDA-client, der quasi direkt auf der hardware arbeiten kann.
HarryHirsch
2008-06-18, 15:29:09
aha, schon mal was von cal gehört?
deekey777
2008-06-18, 15:49:20
Da arbeitet der CUDA-Client momentan wohl einfach deutlich effizienter und die skalare Architektur macht sich wohl auch bemerkbar.
btw.
Wohl 2x 3870 oder? ;)
Wenn sich die skalare Architektur bemerkbar machen würde, dann müsste eine G92 in etwa um x-fache schneller sein: vier Vec16-ALUs gegen 8 Vec16-ALUs (also schon 2x) mit fast doppelt so hohem Takt (weitere 2x) und dazu noch halb so große Threads (und nochmal 2x). 2*2*2=8. Die 9800GTX müsste somit achtmal schneller als eine HD3870 sein.
PS Note that Tom's H numbers are a bit misleading. We're not getting 650ns/day (yet) on the gtx280 (more like 550) and we're now getting 250ns/day on 3870's in the lab (perhaps 300ns/day in time), and the 3870's are the previous gen ATI cards. The gtx280 is going to be really great at folding though.
Aktuell ist die Software eh im Betastadium, und wenn diese nicht mehr "Beta" ist, dann kann man sich unterhalten, welche Hardware den größten Nutzen bringt.
HarryHirsch
2008-06-18, 16:02:26
solange es keine angaben zur berechnung der ppd bei nvidia gibt, seh ich das ganze so, das nvidia die "gute tat" f@h als werbung missbraucht
DevilX
2008-06-18, 21:42:10
der client der für die reviews bestimmt war ist um einiges schneller als von der stanford uni seite
haha tombman gepwnd :D
Hmm das war doch die Beta1(Review) und aktuell ist die Beta6(Stanford) oder?
würde ja heißen das der Client langsamer geworden ist??
HarryHirsch
2008-06-18, 22:02:41
Hmm das war doch die Beta1(Review) und aktuell ist die Beta6(Stanford) oder?
würde ja heißen das der Client langsamer geworden ist??
und dann vielleicht auch kompatibler zu anderen wu's?
deekey777
2008-06-19, 00:47:32
Wie reagieren eure Rechner während des Foldings? Meiner ist absolut träge, obwohl dies nicht der Fall sein sollte, oder liegt es an XP/XP-Treibern?
HarryHirsch
2008-06-19, 00:50:41
Wie reagieren eure Rechner während des Foldings? Meiner ist absolut träge, obwohl dies nicht der Fall sein sollte, oder liegt es an XP/XP-Treibern?
also hier ist unter vista und xp alles normal...
die clienten laufen mit "lowest possible priority"
Wie reagieren eure Rechner während des Foldings? Meiner ist absolut träge, obwohl dies nicht der Fall sein sollte, oder liegt es an XP/XP-Treibern?
ich kann sogar beim folden GRID redorchestra und den witcher spielen :D
mit dem 177.35 treiber ist die cpu last auf sogut wie nix zurückgegangen...
was reagiert bei dir träge? die cpu?
deekey777
2008-06-19, 11:01:39
Bei mir sind's 50 Prozent je Kern (der Core).
Thanatos
2008-06-19, 11:30:41
Wisst ihr, ob irgendetwas schon bekannt ist, dass das Berechnen mit der GPU auch für BOINC funktionieren wird?
Bei mir sind's 50 Prozent je Kern (der Core).
das kann irgendwie nicht sein....das klingt für mich als hättest du noch einen älteren als den 177.35 drauf....der verhielt sich bei mir auch störrisch und windows wechselte immer wieder unbemerkt nach dem geforderten reboot auf den 177.26
deekey777
2008-06-19, 13:36:25
das kann irgendwie nicht sein....das klingt für mich als hättest du noch einen älteren als den 177.35 drauf....der verhielt sich bei mir auch störrisch und windows wechselte immer wieder unbemerkt nach dem geforderten reboot auf den 177.26
Hast du XP?
Laut CP ist es 177.35.
nee ich hab vista 32bit
k.a. ob das CP immer richtig anzeigt aber der rivatuner tut es jedenfalls...
aber der nvidia worker unit server ist eh down...
haben wohl keine daten mehr weil plötzlich zig tausende mit 5k-6k PPD am tag folden :D
oder der ansturm war zu groß oder die "arbeitsgrösse" wird erhöht
die GPU Leistung hat sich bald verdoppelt...in der statistik von montag waren es noch 143
http://666kb.com/i/aznlrelh7j0kvjjy5.jpg
http://uploads.screenshot-program.com/upl6106704661.png
man bedenke montag war die GPU leistung noch 143 Terra Flops
Moralelastix
2008-06-20, 15:34:26
Hast du XP?
Laut CP ist es 177.35.
Ich hab hier auch so ne hohe CPU last ca. 50% unter WinXP32!
AnarchX
2008-06-21, 09:19:20
Folding@Home auf Nvidia-GPUs: PCGH-Benchmarks (http://www.pcgameshardware.de/aid,648258/Folding@Home_auf_Nvidia-GPUs_PCGH-Benchmarks/)
Da dürfte wohl selbst eine GF8-IGP noch auf ~ 400 PPD kommen.
da steht treiber 177.34 was ist das fürn treiber? der scheint deutlich schlechter zu laufen..ich bekomme mit der 88GT über 6000 PP
weiß jemand inwieweit man das of potentielle "physik power" übertragen kann? ich meine das verhältnis GPU/CPU
mit dem X2 bekomme ich 165-170 PPD und die 88GT schafft 6000
AnarchX
2008-06-21, 10:32:12
Deine 88GT hat ja auch 30% mehr ALU-Leistung als eine Default-GT. ;)
das ist mir bewusst dennoch kommt 50% mehr folding leistung bei raus...
Godmode
2008-06-21, 15:00:50
Bekommt ihr noch WorkUnits? Bei steht immer da: "Attempting to get work packet"
edit: ok jetzt gibts wieder was!
Ihr wisst aber das "fast" jeder der nich den 174.55 benutzt nur Schrott faltet?
Godmode
2008-06-22, 00:31:33
Ihr wisst aber das "fast" jeder der nich den 174.55 benutzt nur Schrott faltet?
Was heißt fast nur Schrott?
deekey777
2008-06-22, 00:34:28
Was heißt fast nur Schrott?
Ich frage mich eher, woher das kommt, denn im offiziellen Forum steht nichts darüber (falls ich nichts übersehen habe).
Hacki_P3D
2008-06-22, 13:13:42
solange keine Quellenangabe da is... => heisse Luft
Hmm, also unter XP SP2 mit ner OC (statt 515Mhz -> 660Mhz) 8800 GTS 640MB komme ich auf 4450 ppd (non OC "nur" 3400 ppd).
Allerdings ist eine CPU meines Q6600 Quad-Cores auf Anschlag (= 25-27% Gesamtauslastung).
Hab den 177.35er mittels mod. inf drauf (vorher alles von nvidia deinstalliert).
Offenbar scheint die CPU-Belastung unter XP ggü. Vista deutlich höher zu sein.
Auch fühlt sich XP manchmal seltsam langsam an, meist bei Programmen, die auch grafisch (2D) einiges abverlangen.
Der Viewer läuft bei mir nicht richtig: Absturz (Bluescreen) des nv_disp-Treibers nach einigen Sekunden oder gleich am Anfang. Aber egal, fahmon tut's auch.
Hat auch noch jemand diese Probleme mit dem Viewer?
deekey777
2008-06-22, 22:41:47
solange keine Quellenangabe da is... => heisse Luft
Ich habe einige Statements im offiziellen Forum gelesen und danach wäre ich mir nicht so sicher, denn die, die es wissen müssen, schreiben, dass es schon die Möglichkeit gibt, dass bei den modifizierten Treibern zwar die WUs bis zum Ende gemacht werden und fehlerfrei abgeschickt werden, aber als fehlerhaft nicht mehr zu verwenden sind.
Auf der sicheren Seite wäre man, wenn man den freigegebenen Treiber nutzt.
@Gast:
Die CPU-Last ist auf XP-Rechnern definitiv hoch.
Aber ich hatte nur sehr wenige Fehler am Anfang, ab einem Zeitpunkt lief der Client fehlerfrei (bis auf die sehr hohe CPU-Last, wodurch die Leistung des Clients von der CPU-Last abhing). Wem es wirklich nur aufs Falten ankommt, sollte wirklich nur den von F@H freigegebenen Treiber nutzen.
Godmode
2008-06-24, 20:18:40
Die GPU Leistung steigt und steigt an:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
Hmm, also unter XP SP2 mit ner OC (statt 515Mhz -> 660Mhz) 8800 GTS 640MB komme ich auf 4450 ppd (non OC "nur" 3400 ppd).
Allerdings ist eine CPU meines Q6600 Quad-Cores auf Anschlag (= 25-27% Gesamtauslastung).
Hab den 177.35er mittels mod. inf drauf (vorher alles von nvidia deinstalliert).
Offenbar scheint die CPU-Belastung unter XP ggü. Vista deutlich höher zu sein.
Auch fühlt sich XP manchmal seltsam langsam an, meist bei Programmen, die auch grafisch (2D) einiges abverlangen.
Der Viewer läuft bei mir nicht richtig: Absturz (Bluescreen) des nv_disp-Treibers nach einigen Sekunden oder gleich am Anfang. Aber egal, fahmon tut's auch.
Hat auch noch jemand diese Probleme mit dem Viewer?
das mit den laggs ist ein bekannstes problem:
http://foldingforum.org/viewtopic.php?f=42&t=3501
This will NOT fix problems related to cores of course, like the viewer problems, nVidia desktop lag/lockups, etc.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.