Archiv verlassen und diese Seite im Standarddesign anzeigen : Was rechnen heute Supercomputer?
Badesalz
2019-08-15, 02:19:52
Klang trivial. Sowas weiß ich ja. Fand ich dann aber doch nicht so trivial.
Wetter geht kaum noch. Unsere Erfahrungswerte welche die Algos ausmachen sind fast komplett dahin. Klima - also, kein Wetter :rolleyes: - können sie. Wenn sie das Wetter schnallen würden. Geht aber kaum noch.
Jetzt sehe ich grad das hier
https://www.heise.de/newsticker/meldung/Supercomputer-USA-investieren-600-Millionen-US-Dollar-in-Atomwaffenforschung-4496745.html
Seit weivielen Jahrzehnten rechnen Supercomputer schon Nuklearsimulationen? Gibt es da noch 2020 was zu erforschen bzw. berechnen??
Was noch? Pharma? gibts nicht immernoch Rückrufe (vom Makrt nehmen), weil Leute sich von irgendetwas überraschenderwiese reihenwiese bekotzen oder besch... usw. usw.?
Monger
2019-08-15, 07:13:00
Bin ich grad zu doof um den Thread zu verstehen, oder hast du getrunken?
Lokadamus
2019-08-15, 07:21:13
Bin ich grad zu doof um den Thread zu verstehen, oder hast du getrunken?Es ist Badesalz. Was soll man dazu sagen.
https://de.wikipedia.org/wiki/Supercomputer
Supercomputer spielen eine essentielle Rolle im wissenschaftlichen Rechnen und werden dort in diversen Disziplinen eingesetzt, etwa Simulationen im Bereich der Quantenmechanik, Wettervorhersagen, Klimatologie, Entdeckung von Öl- und Gasvorkommen, Molekulardynamik, Biologischen Makromolekülen, Kosmologie, Astrophysik, Fusionsforschung, Erforschung von Kernwaffentests bis hin zur Kryptoanalyse.
Es gibt immer wieder neue Berechnungen und weitere Erkenntnisse bei zum Beispiel exotischen Materialien, weshalb nochmal alles durchgenudelt werden kann.
Platos
2019-08-15, 08:11:40
https://www.top500.org/list/2019/06/
Was die rechnen ? Naja, so ziemlich alles eben. Wettermodelle, Physikalische Modelle (z.B wie genau die Spulen ausehen müssen, beim Wendelstein 7x), KI sollte klar sein, Dinge wie nvididas DLSS, Samsungs "upscaling" bei ihren 8K TVs... Allgemein sehr vieles in der Wissenschaft. Mathematik, Wirtschaft sicherlich auch...
Mortalvision
2019-08-15, 08:13:11
nicht vergessen: Auto fahren ;)
Melbourne, FL
2019-08-15, 09:36:30
Ich rechne ziemlich viel auf Supercomputern. Wir simulieren Proteine in einer Zellmembran. Das ist Grundlagenforschung. Aber die Proteine, die uns interessieren, sind die, welche ein Großteil der Medikamente zum Ziel hat. Unser Ziel ist es diese Proteine besser zu verstehen, da ihr Verhalten sehr komplex ist und man bisher ziemlich wenig über sie weiß.
In unserer Simulation sind alle Moleküle aus einzelnen Atomen aufgebaut. Eine Simulation hat so üblicherweise 100.000 bis 500.000 Atome. Für einen Frame müssen wir die Interaktion jedes Atoms mit jedem anderen berechnen...also extrem viele Interaktionen. Für eine halbwegs sinnvolle Simulation müssen wir aber nicht nur einen Frame berechnen sondern so ca. 1.000.000.000 (eine Milliarde).
Deswegen brauchen wir Supercomputer. Die Aufgaben kann man sehr schön parallelisieren...wir können recht problemlos 1000 Kerne gleichzeitig nutzen. Trotzdem rechnet man für so eine Simulation Wochen bis ein paar Monate.
Alexander
Meine Biologen rechnen auf dem SuperMUC hauptsächlich mögliche Genmutationen von ganz simplen Organismen durch.
/edit
Letztens hab ich auch gelesen, dass die Profisegler gern mit Supercomputern mögliche Routen für Atlantiküberquerungen und Ähnliches simulieren lassen.
Da werden dann basierend auf den aktuellen Wetterdaten mal eben 12000 Routen durchgerechnet um die schnellste zu finden.
Distroia
2019-08-15, 10:52:06
Wetter geht kaum noch. Unsere Erfahrungswerte welche die Algos ausmachen sind fast komplett dahin. Klima - also, kein Wetter :rolleyes: - können sie. Wenn sie das Wetter schnallen würden. Geht aber kaum noch.
Willst du damit sagen, wir sollten keine Supercomputer für Klimavorhersagen nutzen, weil sie angeblich nicht mal das Wetter vorhersagen können?
Dein ganzer Text klingt ganz schön wirr.
Badesalz
2019-08-15, 11:51:50
Bin ich grad zu doof um den Thread zu verstehen, oder hast du getrunken?Ich kann das erste leider nicht ausschliessen.
Was der Thread hinterfragt ist soweit offensichtlich
1. Wofür rechnen "wir" 2020 noch an Nuklerwaffen rum?? Nicht gleich wegen Pazifismus, aber was kann man da noch herausfinden?
2. Für was sinnvolles rechnen alle anderen sich da was zusammen?
Platos, danke für die "Wettermodelle". Kann man ja jeden Tag sehen wie das hinhaut :ulol: Alles andere ist natürlich die alte Laier.
Das mit Wendelstein ist sogar interessant, müsste das aber nicht längst klar sein?
Distroia, Klima geht ohne Wetter schlecht. Deswegen werden die vorhersagen (Klima) auch jährlich korrigiert. Weil man das Jahr zurückschaut und sieht was an der Klimavorhersage nicht gepasst hat. Da passt meistens sehr viel nicht. Und jetzt volle Konzentration bitte:
Was ist an sowas noch Vorhersage?
Sonst hätt ich selbst hier nicht gedacht, daß das Anliegen des Threads so vielen viel zu hoch ist. Wenigstens aber finden unsere Besten Wikischnippel dazu. Sehr schön :freak:
@Alexander
Aus welcher Ecke kommt das? Pharma? Chemiewaffen? :ulol: ;)
Werden die Ergebnisse in Natura gegengetestet und bewertet? Dauert der Gegentest (Natura) genauso lange?
@Joe
Ok. Auch interessant. Das machen sie, damit anschliessend?
Distroia
2019-08-15, 12:17:15
Platos, danke für die "Wettermodelle". Kann man ja jeden Tag sehen wie das hinhaut :ulol: Alles andere ist natürlich die alte Laier.
Das mit Wendelstein ist aber sogar interessant, müsste das aber nicht bereits klar sein?
Distroia, Klima geht ohne Wetter schlecht. Deswegen werden die vorhersagen (Klima) auch jährlich korrigiert. Weil man das Jahr zurückschaut und sieht was an der Klimavorhersage nicht gepasst hat. Und jetzt volle Konzentration bitte:
Was ist an sowas noch Vorhersage?
Ist das nur dein Gefühl oder basiert deine Meinung zu Wettervorhersagen auf tatsächlichen Untersuchungen? Ich glaube, ich kenne deine Antwort, und wenn du nicht antwortest, ist das auch eine Antwort. ;)
Zum Thema Klima vs. Wetter.
Ich mache mal eine ganz gewagte Vorhersage: 2020 wird die globale Durchschnittstemperatur zwischen 14,9° C und 15,1° C sein. Glaubst du, ich kann genau so exakt die Temperatur für meinen Wohnort für morgen vorhersagen?
Merkt du, worauf ich hinaus will? Die globale Temperatur hängt vom Wärmeenergiegehalt innerhalb der Atmosphäre ab. Wie sich diese Wärme verteilt, ist schwieriger zu berechnen als die tatsächliche Menge der Energie. Dazu muss man die Bewegung dieser Energie durch Winde etc. Rechnung tragen, was sich extrem schwer simulieren lässt. Energie rein minus Energie raus ist leichter zu berechnen als Strömungssimulationen zu verwenden (ganz vereinfacht ausgedrückt). Es ist viel leichter zu sagen wie die Temperatur in 10 Jahren global sein wird, als vorherzusagen, wie warm es morgen an einem bestimmten Ort sein. Es geht sogar noch weiter: Das globale Klima lässt sich leichter Vorhersagen, als das Klima an einem Ort.
Das Argument, man könne das Klima nicht vorhersagen, weil man nicht einmal das Wetter vorhersagen kann, hört man ständig. Nur weil etwas ständig wiederholt wird, muss es nicht richtig sein.
Badesalz
2019-08-15, 12:37:12
Was soll man denn dazu groß erzählen? :confused: Meistens wird nichts gerechnet (Wetter), sondern geschaut was bei rauskam, als das Wetter abends davor in paar Jahren davor so ausschaute. Dann bekommst du "Regenwahrscheinlichkeit 60%" zu sehen und schon sind sie fertig damit.
Für den Montag, war am Sonntag Vormittag die Vorhersage, Montag wird es abends sehr sehr wahrscheinlcih regnen. Es hat Montag in der Früh geregnet. Dann nicht mehr.
Halbe Stunde vor dem Regen sprangen die Vorhersagen alle auf "wird gleich regnen". Ja, Spitze :ulol: Das hat man schon am Wolkenbild sehen können.
Für die Leistung die aktuell genutzt wird und für die Erfahrungswerte die mittlerweile gesammelt werden müssten, ist die Wettervorhersage Müll. Wenn nicht sogar letzter Müll.
Das mein ich nichtmal auf irgendwelche Orte bezogen, sondern einen Radius von ~100km.
Was Klima selbst angeht... Also ICH sehe hier schon einige Verflechtungen mit dem Wetter :freak: Andererseits schrieb ich ja schon, wie Klimamodelle jährlich verworfen werden, fragte also, was daran VORHERSAGE sein soll.
Welchen realen Nutzen hat das überhaupt? Meist geht es darum "wir werden alle störben" und "die Hälfte von uns wird störben", wenn wir weiter Auto fahren und nicht mit der Bahn. Wird da irgendwo noch mehr kommuniziert? (wegen dem Nutzen) Zum Beispiel, daß in Nord-West Hessen Wasserkanäle umgebaut werden, weil da in den nächsten 10 Jahren mit wesentlich mehr Niederschlag zu rechnen ist? TUT SICH durch die Vorhersagen irgendwo etwas praktisches?
Oder beschränkt sich die Klimaforschung alleine auf die Berechnung der durchschnittlichen globalen Temperatur? Da reicht Peta nicht, man bräuchte eher Exa? Und davor reichte Tera nicht, man brauchte eher Peta? Nö ist klar...
Vielleicht krieg ich das alles nur nicht mit. Deswegen frag ich ja auch.
Distroia
2019-08-15, 13:17:19
Du sagst es ja selbst, deine Einschätzung beruht auf deinen eigenen Erfahrungen. Nur bist du mit deinem Gefühl alleine nicht in der Lage, das richtig zu beurteilen. Es wird viel mehr in deinem Gedächtnis bleiben, wenn die Wettervorhersage daneben lag, als wenn sie richtig lag. Deswegen haben Wettervorhersagen so ein schlechtes Image. Ich selbst wollte vor zwei Monaten draußen am Fels klettern gehen und wurde dann von einem Regenschauer überrascht, der nicht vorhergesagt gewesen war, und wir mussten wieder nach Hause gehen. Daran erinnere ich mich heute noch sehr gut. Die Fälle in denen die Vorhersage richtig war habe ich lange vergessen. Dazu kommt noch, dass es dir persönlich gut ins Bild passen würde, dass der Wettervorhersage nicht zu trauen ist, denn das würde ja deiner Meinung nach die Vorhersagen zum Klimawandel delegitimieren.
Es ist richtig, dass Erfahrungen aus den Vorjahren in die Wettervorhersage mit einfließen; das ist aber nur ein Faktor unter vielen.
Es gibt natürlich Untersuchungen zur Genauigkeit von Wettervorhersagen, so wie diese (https://www.forecastwatch.com/wp-content/uploads/High_Temperature_Accuracy_Study_12_Years.pdf)hier, die bestätigen, dass die Wettervorhersagen genauer werden (ist leider schon ein paar Jahre alt). Willst du dir die Studie durchlesen oder doch lieber deiner subjektiven Einschätzung, basierend auf Anekdoten, vertrauen?
Den Nutzen von Klimasimulationen könnten wir ja gerne diskutieren, nur leider sehe ich, dass du nicht an den menschgemachten Klimawandel glaubst. Deswegen glaube ich nicht, dass eine sinnvolle Diskussion mit dir zu dem Thema möglich ist. Du würdest wohl ständig wieder auf diese Frage zurückkommen, genauso wie ich das Gefühl habe, du eine deiner Gründe diesen Thread zu erstellen darin bestand, den menschgemachten Klimawandel in Frage zu stellen. Als hätten wir nicht schon einen Thread zu dem Thema.
Monger
2019-08-15, 13:39:08
Ich kann das erste leider nicht ausschliessen.
Was der Thread hinterfragt ist soweit offensichtlich
1. Wofür rechnen "wir" 2020 noch an Nuklerwaffen rum?? Nicht gleich wegen Pazifismus, aber was kann man da noch herausfinden?
2. Für was sinnvolles rechnen alle anderen sich da was zusammen?
Plutonium ist selten, damit geht man sparsam um. Auf der anderen Seite sind Atombomben gnadenlos ineffizient: nur ein winziger Anteil des spaltbaren Materials spaltet wirklich. Der Rest verteilt sich in der Landschaft. Mit der richtigen Geometrie kann man den Anteil des gespalteten Materials deutlich erhöhen, ergo gleiche Wirkung mit viel kleineren Bomben. Das ist aber aufwendig zu simulieren, bei Fusionsbomben gleich dreimal.
Der Trend geht ja eh weg von den großen Städteplättern, hin zu taktischen Nuklearwaffen. Bunkerknacker, und so. Da will man dann evtl. die Wirkung stärker in eine Richtung ausrichten.
Die Kritik an der Wettervorhersage finde ich merkwürdig. Die ist in den letzten 10 Jahren viel, viel besser geworden, und hat ja auch relevante wirtschaftliche Konsequenzen. Jeder Landwirt richtet seine Arbeit danach aus.
Wenn dir keine Anwendungsgebiete für Supercomputer einfallen, lebst du grad glaub unter einem Stein. Man kann nie genug Rechenkapazitäten haben. Mal ein paar Beispiele:
Fluiddynamik, ergo Flüssigkeitsbewegungen. Ist für alles mögliche relevant, u.a. für Turbinen etc. . Ist ein unfassbar komplexes Thema, kann aber eben zusätzlich Effizienz rauskitzeln.
Chemie. Organische und anorganische Chemie lässt sich auf molekularer Ebene ziemlich gut vorhersagen, ist aber scheiße komplex. Die meisten Medikamente heute entstehen erst in der Simulation, bevor es irgendeinen Laborversuch dazu gibt. Ist ansonsten halt auch schwierig, systematisch danach zu suchen.
Astronomie. Die Teleskope spucken unfassbare Datenmengen aus. Auch Jahre nachdem die Teleskope außer Betrieb sind, sind ihre Datenmengen noch lange nicht ausgewertet.
Jenseits der Forschung gibt es natürlich auch wirtschaftliche Anwendungen, die insgesamt eher kleiner sind, aber halt von Hinz und Kunz gebraucht werden. Deshalb verdienen die großen Datacenter Anbieter ja gerade unverschämt viel Geld.
Palpatin
2019-08-15, 14:51:07
1. Wofür rechnen "wir" 2020 noch an Nuklerwaffen rum?? Nicht gleich wegen Pazifismus, aber was kann man da noch herausfinden?
https://www.spiegel.de/politik/ausland/russland-und-der-skyfall-unfall-wladimir-putins-wunderwaffe-faellt-ins-wasser-a-1281709.html
Um solche Unfälle zu vermeiden?
Melbourne, FL
2019-08-15, 14:55:44
Was der Thread hinterfragt ist soweit offensichtlich
1. Wofür rechnen "wir" 2020 noch an Nuklerwaffen rum?? Nicht gleich wegen Pazifismus, aber was kann man da noch herausfinden?
Weil Atomwaffentests verboten sind aber man so trotzdem seine Nuklearwaffen noch "besser" machen kann. Wobei das "besser" absichtlich in "" steht.
Platos, danke für die "Wettermodelle". Kann man ja jeden Tag sehen wie das hinhaut :ulol: Alles andere ist natürlich die alte Laier.
Ja...die Wettervorhersage ist immer noch arg genau und trotzdem viel viel besser also noch vor ein paar Jahren. Das liegt auch an der gestiegenen Rechenleistung. Die Welt ist nun mal verdammt groß...da hilft es sich Dank der steigenden Rechenleistung in immer kleinere Boxen unterteilen zu können.
Distroia, Klima geht ohne Wetter schlecht. Deswegen werden die vorhersagen (Klima) auch jährlich korrigiert. Weil man das Jahr zurückschaut und sieht was an der Klimavorhersage nicht gepasst hat. Da passt meistens sehr viel nicht. Und jetzt volle Konzentration bitte:
Was ist an sowas noch Vorhersage?
Das stimmt so schlicht und einfach nicht. Deswegen kann man dazu auch nix sagen. Die Klimamodelle sind gut und werden immer weiter verbessert. Sie treffen vielleicht nicht genau die Wirklichkeit aber der Trend stimmt eigentlich immer.
@Alexander
Aus welcher Ecke kommt das? Pharma? Chemiewaffen? :ulol: ;)
Grundlagenforschung an der Uni.
Werden die Ergebnisse in Natura gegengetestet und bewertet? Dauert der Gegentest (Natura) genauso lange?
Natürlich werden unsere Ergbnisse immer mit experimentellen Daten verglichen. Generell ist die Übereinstimmung sehr gut...meistens hakt es daran, dass man nicht genug simulieren kann, wenn die Übereinstimmung mal nicht so gut ist. Die Durchführung der Experimente dauert meist auch lange (Wochen+)...hängt natürlich stark vom Experiment und der Probe ab. Aber die Experimente liefern lange nicht so viele Informationen wie die Simulationen. Deswegen ergänzt sich das so schön...und genau das ist mein Spezialgebiet: Vergleich von Experiment und Simulation.
Alexander
Badesalz
2019-08-15, 16:19:23
@Palpatin
Kein Berechnungsfehler. Materialfehler. Keine verkehrtes Material, sondern ein fehlerhaft hergestelltes. Da hilft kein Numbercruncher.
Du sagst es ja selbst, deine Einschätzung beruht auf deinen eigenen Erfahrungen. Nur bist du mit deinem Gefühl alleine nicht in der Lage, das richtig zu beurteilen. Es wird viel mehr in deinem Gedächtnis bleiben, wenn die Wettervorhersage daneben lag, als wenn sie richtig lag.Also wie mit der Katze von Schrödinger wo alles bestens ist solange man selbst nicht nachschaut und dann feststellt, sie ist immer tot, wenn man sie lebend erwartet und immer lebendig, wenn man sie tot erwartet?
Die Leute gucken nach dem Wetter, wenn sie sich der Lage nicht ganz sicher sind. Das ist außer auf den Oceanen und in den Bergen sonst eher gut abschätzbar für die nächsten 4-5h. Man schaut nach, wenn man das Gefühl hat, dem ist so nicht. Und genau da versagt das System sehr oft. Daß die Leute sich das dann merken ist jetzt nichts besonderes oder?
Welche Statistik zeigt, es wäre anders? Wenn es jedem der ein simples Satbild deuten kann glasklar ist, es wird die nächsten 3 Tage >20°C bleiben und es wird nicht regnen, dann war die Wettervorhersage natürlich 3 Tage lang zu 100% ok. Ok, wenn man dann am 4ten Tag sagt, es bleibt trocken, und es regent… Hej 3 Tage 100% goldrichtig und an einem Tag falsch… ISt doch nicht so schlecht oder? :freak:
@Alex
Ja, die Frage eben, was man an einem Atomsprengkopf 2020 besser machen kann. Meinst du wenn die Autohersteller soviel am Dieselmotor gerechnet hätten, wäre das heute 30x30cm klein, würde 10kg wiegen, 2.5L/100km verbrauchen und hätte 180PS? Oder so?
Davon rede ich doch. Den Trend der immer stimmt, das konnte man schon vor 10 Jahren rechnen. Mit Tera, nicht mit Peta.
Grundlagenforschung ist immer top. Trotzdem verspricht man sich irgendeinen Nutzen, irgendwann. Sei es nur groben, aber eben notwendigen. Alles gut. Um was geht es da diesbezüglich?
@Monger
Wie lange wollen wir noch Fluiddynamik am Supercomputer erforschen? Das lese ich schon seit 20 Jahren. Was kam dabei bisher raus?
Mit Wasser kenn ich mich bisschen aus. Da tut sich seit Urzeiten kaum was (Pumpengehäuse, Laufräder). Daher ist eher die Regelung für die Effizienz ausschlaggebend.
Das einzige was mich dabei bisher beeindruckt hat ist die Entwicklung der Schrauben bei Ubooten (militärisch).
Agenor
2019-08-15, 16:46:54
Warum Klimamodelle wohl besser sind als ihr Ruf.
Clarity from Chaos: How Climate Models Could Be Better than We Think (http://physicsbuzz.physicscentral.com/2019/08/clarity-from-chaos-how-climate-models.html)
Bin erst vorgestern über den obigen Artikel gestolpert. Zufälle gibts. :wink:
Monger
2019-08-15, 17:40:29
@Monger
Wie lange wollen wir noch Fluiddynamik am Supercomputer erforschen? Das lese ich schon seit 20 Jahren. Was kam dabei bisher raus?
Fluiddynamik ist nicht nur Wasser.
Wo Fluiddynamik überall ne Rolle spielt: Motoren, Rotoren, Kühlungen, Explosionen, Materialforschung, elektrische Felder...
Hast du ein Induktionskochfeld? Willst du Kernfusion? Geht nicht ohne Fluiddynamik.
https://i.imgflip.com/3830us.jpg
Lokadamus
2019-08-15, 18:25:27
Platos, danke für die "Wettermodelle". Kann man ja jeden Tag sehen wie das hinhaut :ulol: Alles andere ist natürlich die alte Laier. Ich weiß zwar nicht, was deine Quelle ist, aber du solltest sie mal dringend ändern.
wetter.com haut schon ziemlich gut hin. Bei einer Vorhersage von einer Woche stimmt das Ergebnis meistens, öfters auch die 2 wochen Vorhersage.
Nightspider
2019-08-15, 18:40:58
Mir fallen auf Anhieb gefühlte 100 Anwendungszwecke ein.
Badesalz, wie alt bist du, wenn man fragen darf?
anddill
2019-08-15, 18:52:11
Mir fallen auf Anhieb gefühlte 100 Anwendungszwecke ein.
Badesalz, wie alt bist du, wenn man fragen darf?
Wenn ich das auf meinem Supercomputer simuliere kommt meist was zwischen 11,8 und 13,2 raus.
[MK2]Mythos
2019-08-15, 18:55:30
Wenn ich das auf meinem Supercomputer simuliere kommt meist was zwischen 11,8 und 13,2 raus.
;D
Kann nicht sein, bei der Lebenserfahrung und der Expertise, die in jedem Thread durchscheint.
Platos
2019-08-15, 19:10:01
haha, aber das Thema ist eig. schon noch interessant.
Wie "erfolgreich" kann man denn so Mutationen bisher testen? Man könnte ja das mit Fliegen ziemlich einfach gegenprüfen oder anderen Tieren/Lebewesen, die sich sehr schnell reproduzieren (?) Oder testet man das auch in Bezug auf Kontakt mit bestimmten anderen Faktoren (erhöhte UV-Strahlung, Stoffe, die vlt. cancerogen/mutagen sind oder sonstiges (Strahlung)) ?
Badesalz
2019-08-15, 21:03:48
Fluiddynamik ist nicht nur Wasser.
Wo Fluiddynamik überall ne Rolle spielt: Motoren, Rotoren, Kühlungen, Explosionen, Materialforschung, elektrische Felder...
Hast du ein Induktionskochfeld? Willst du Kernfusion? Geht nicht ohne Fluiddynamik.Du hast die Fragerei nur zu 50% verstanden. Oder du lässt dich von der Idiotie der sonstigen Antworten anstecken. Ich hab nicht gefragt wozu man das überhaupt macht. Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen.
Patente für Induktionskochfeld sind von 1900. Erste Kochplatten von 1973. Dafür brauchen wir heute noch Numbercruncher, um da was zu verbessern? Was sind das für Beispiele?
@Nightspider
Wenn dir 100 Sachen einfallen, nenn doch wenigstens 50 davon. Du hast grad oben gelesen was das Thema ist.
@anddill
Wenn ich das auf meinem Supercomputer simuliere kommt meist was zwischen 11,8 und 13,2 raus.
Das klingt realistisch. Damit bist du state of the art. Die Unschärfe deiner Berechnungen entspricht in etwa jener der Modelle der Klimaforschung
https://www.yaleclimateconnections.org/2019/08/video-the-north-atlantic-ocean-current-may-be-slowing/
Platos
2019-08-15, 21:27:50
Wie wäre es, wenn du mal einen freundlichen Ton an den Tag legst, Badesalz ? Die Leute hier sagen, wo man Anwendungen findet und du redest hier so mit den Leuten ?
Badesalz
2019-08-15, 21:33:34
Ja. Ok. Wie wäre es, wenn du mich hier zwischendurch darüber aufklärst was an #2, #3, #19, #21, #22 oder #23 freundlich ist?
Hab ich irgendwo geschrieben, jede Antwort war bisher idiotisch? Nein? Dann brauchst du dich auch nicht angesprochen fühlen. Hast du mit über Schwachsinn gelacht? Dann bist du ja nur ein Mittäter. Nicht schlimm ;)
Lokadamus
2019-08-15, 21:40:42
Du hast die Fragerei nur zu 50% verstanden. Oder du lässt dich von der Idiotie der sonstigen Antworten anstecken. Ich hab nicht gefragt wozu man das überhaupt macht. Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen.
Patente für Induktionskochfeld sind von 1900. Erste Kochplatten von 1973. Dafür brauchen wir heute noch Numbercruncher, um da was zu verbessern? Was sind das für Beispiele?Meine Fresse.
Zum Glück gibt es dich. Da brauch man auch nicht mehr am E- Auto zu forschen. Das gabs schon vor 100 Jahren. Was soll man da noch erforschen? Bessere Akkus? Höhere Leitfähigkeit? Metamaterialien? Hatten wir doch schon alles. Wie wäre es mit Gott? Der lässt sich bestimmt auch berechnen.
https://www.spiegel.de/geschichte/elektroauto-revolution-vor-100-jahren-a-947600.html
https://www.spiegel.de/geschichte/elektroautos-so-modern-wie-1899-zurueck-in-die-zukunft-a-1176851.html
Selbst Graphen sind alt.
https://de.wikipedia.org/wiki/Graphen#Geschichte
Also da kann ich dir die Frage, warum man überhaupt was schnelleres als ein C64 braucht, auch nicht beantworten. Ich weiß nicht, warum wir sowas wie GHz haben. Wirklich nicht. Erst recht nicht dieses Ding mit "Multicore" usw. :uhammer:
Edit: Um die Frage wegen Nukular- Waffen zu beantworten: Was wäre, wenn man einen A-Sprengkopf auf eine https://de.wikipedia.org/wiki/Hyperschallgeschwindigkeit#Milit%C3%A4rische_Projekte_und_Flugk%C3%B6rper packen würde? Muss man dann den A-Sprengkopf noch mit Sprengstoff ausstatten oder reicht der Knall auf der Erde aus, um die Kettenreaktion zu starten?
Badesalz
2019-08-15, 22:01:31
Ah guck. Der Wikipedianer ist wieder da. Und nu? Was steht denn überhaupt im ersten Beitrag drin? Was hat das mit deinem Geschreibsel zu tun? Du Antwortest auf die These, man bräuchte heute keine Supercomputer mehr? Wer hat denn die wo Aufgestellt?
Dein Edit war einer der wenigen kurzen Texte bisher, die nicht am Thema vorbei schwätzen. Eine wirklich gute Idee zum Topic.
Man liest sich.
Monger
2019-08-15, 22:56:07
Du hast die Fragerei nur zu 50% verstanden. Oder du lässt dich von der Idiotie der sonstigen Antworten anstecken. Ich hab nicht gefragt wozu man das überhaupt macht. Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen.
Naja, ich denke wir brauchen nicht darüber reden, dass es bei KI, Astronomie, Biochemie, Materialforschung und Elementarphysik noch Luft nach oben gibt, oder?
Als Pazifist fällt es mir schwer zu beantworten, wozu Waffenforschung gut ist. Aber was ich drüber gelesen habe ist halt, dass Atombombentests ja weltweit geächtet sind, aber Simulationen nicht. Das ist so als würde man die Sinnhaftigkeit von Crashtests hinterfragen: VW Golf wurde doch ausreichend getestet, wozu den Mazda auch noch testen?
Ich hab Fluiddynamik eigentlich nur als Beispiel genannt, weil es ein scheinbar so stumpfes Forschungsfeld ist, aber unfassbar rechenaufwändig sein kann. Ein Beispiel dafür ist z.B. Erdbebenfrüherkennung, die tatsächlich so ganz langsam so ausgereift ist, dass die Vorwarnung manchmal rechtzeitig kommt. Den gesamten Erdkern zu simulieren, ist halt ne anspruchsvolle Aufgabe.
Platos
2019-08-16, 00:03:24
Ja. Ok. Wie wäre es, wenn du mich hier zwischendurch darüber aufklärst was an #2, #3, #19, #21, #22 oder #23 freundlich ist?
Hab ich irgendwo geschrieben, jede Antwort war bisher idiotisch? Nein? Dann brauchst du dich auch nicht angesprochen fühlen. Hast du mit über Schwachsinn gelacht? Dann bist du ja nur ein Mittäter. Nicht schlimm ;)
Der Witz war doch auch zugegebenermassen ganz gut? Aber ok, dann entschuldige ich mich!
Und ja, klar, sind auch andere hier manchmal am "zurückgeben", aber du redest auch mit anderen, die ganz normal antworten, mit einem unfreundlichen Ton, finde ich.
Lokadamus
2019-08-16, 05:44:36
Ah guck. Der Wikipedianer ist wieder da. Und nu? Was steht denn überhaupt im ersten Beitrag drin?Du hast dich selber schon bei der ersten Frage sehr stümperhaft angestellt und mit deiner Frage
Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen. hast du nur gezeigt, dass du die ganze Technik nicht verstehst. Warum die Sachen gemacht wurden, wurde bereits auf Seite 1 von jemanden beantwortet. Da war auch gleich der Hinweis drinne, warum man immer mehr Rechenleistung braucht. Die Frage, warum man mehr Rechenleistung braucht, kommt alle paar Jahre wieder und zeigt, dass einige keine Ahnung von Technik haben.
Jeder, der in der IT arbeitet, weiß, warum man mehr Rechenleistung braucht.
Tidus
2019-08-16, 08:55:41
Ja. Ok. Wie wäre es, wenn du mich hier zwischendurch darüber aufklärst was an #2, #3, #19, #21, #22 oder #23 freundlich ist?
Wie man in den Wald hineinruft...
Du solltest deinen Diskussionsstil mal dringend überdenken.
Melbourne, FL
2019-08-16, 09:34:16
Du hast die Fragerei nur zu 50% verstanden. Oder du lässt dich von der Idiotie der sonstigen Antworten anstecken. Ich hab nicht gefragt wozu man das überhaupt macht. Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen.
Du beschwerst Dich doch, dass Wettervorhersage und Klimamodelle noch nicht perfekt sind. Und ja das sind sie noch nicht. Und ja, dass lässt sich mit mehr Rechenpower deutlich verbessern.
Am besten würde man jedes Atom der Atmosphäre einzeln berechnen...am besten auf quantenmechanischem Niveau. Dann könnte man sehr sehr gute Vorhersagen machen. Das kann man aber nicht in halbwegs sinnvoller Zeit ausrechnen. Selbst auf dem schnellsten Supercomputer würde man für nur ein einzelnes Frame Jahrhunderte brauchen (und das ist noch tief geschätzt). Deswegen muss man vereinfachen...und zwar massiv...man braucht ja nicht nur ein Frame sondern viele Frames. Und das kostet Präzision...sehr viel Präzision. Wenn der Rechner schneller wird muss man entsprechend weniger vereinfachen und bekommt präzisere Ergebnisse...also bessere Voraussagen.
@Alex
Ja, die Frage eben, was man an einem Atomsprengkopf 2020 besser machen kann.
Da bin ich kein Experte deswegen kann ich nicht viel dazu sagen. Aber da das Ganze ein höchst komplexer Vorgang ist, kann ich mir gut vorstellen, dass es da viele Stellschrauben gibt...mal vom generellen Unsinn von Nuklearwaffen abgesehen.
Meinst du wenn die Autohersteller soviel am Dieselmotor gerechnet hätten, wäre das heute 30x30cm klein, würde 10kg wiegen, 2.5L/100km verbrauchen und hätte 180PS? Oder so?
Ich weiß nicht ob das ein gutes Beispiel für Simulationen ist. Ein gutes ist z.B. die Optimierung von Karosserieformen bzgl. Luftwiderstand. Nicht jede Anwendung profitiert ähnlich bzw. lässt sich gut über Supercomputer untersuchen.
Davon rede ich doch. Den Trend der immer stimmt, das konnte man schon vor 10 Jahren rechnen. Mit Tera, nicht mit Peta.
Mit steigender Rechenleistung werden die Trends aber besser und sind näher an der Realität...siehe oben.
Grundlagenforschung ist immer top. Trotzdem verspricht man sich irgendeinen Nutzen, irgendwann. Sei es nur groben, aber eben notwendigen. Alles gut. Um was geht es da diesbezüglich?
Das ist die landfäufige Meinung über Grundlagenforschung, die aber leider vollkommen falsch ist. Frag doch mal Albert Einstein 1915 wozu seine allgemeine Relativitätstheorie gut ist. Dem wäre außer Astrophysik im Extrembereich wahrscheinlich nicht viel eingefallen. Heute würde kein GPS ohne Relativitätstheorie funktionieren. Oder frag Werner Heisenberg 1930 wozu die Quantenmechanik gut ist. Heute würde kaum etwas ohne Quantenmechanik funktionieren...vor allem nicht die Rechner/Handys an denen wir gerade sitzen.
Oder ein aktuelleres Beispiel: frag Andre Geim und Konstantin Novoselov wieso man mit Klebeband und Graphit (das Material, aus dem eine Bleistiftspitze besteht) rumspielen sollte. Dafür gab es dann 2010 den Nobelpreis (https://www.spiegel.de/wissenschaft/mensch/auszeichnung-fuer-graphen-entdecker-mit-klebeband-zum-physik-nobelpreis-a-721370.html).
Trotzdem möchte ich auf Deine Frage bzgl. meiner Forschung etwas genauer eingehen. Die Proteine die wir untersuchen gehören zu den GPCRs. Das sind Proteine die in enorm wichtigen Signalwegen eine absolute Schlüsselfunktion übernehmen. Ca. 30% aller aktuellen Medikamente haben einen solchen GPCR zum Ziel...also docken an den dran und verändern irgendwie seine Funktion. Und bei den meisten hat man nicht die geringste Ahnung wie das funktioniert. Meist weiss man noch nicht mal, wie der GPCR aussieht, geschweige denn, was das Medikament mit dem GPCR macht.
Die erste Struktur eines menschlichen GPCR hat man 2007 aufklären können. Heute kennt man die Strukturen von so ca. 40 verschiedenen GPCRs. Es gibt im Menschen aber ca. 800 verschiedene GPCRs. Noch dazu verrät einem die Struktur erstmal nicht viel sondern stellt viel mehr den Startpunkt dar, von dem aus man versuchen kann, mehr über die Funktion des GPCRs zu lernen. Und da helfen unsere Simulationen, da sich herausgestellt hat, dass die Funktion von GPCRs zu einem Großteil mit seinen Bewegungen zu tun hat...und da helfen starre Strukturen nicht viel. Man hat also schon viel über diese Proteinklasse gelernt und steht trotzdem noch ziemlich am Anfang.
Das langfristige Ziel, dass man hier formulieren könnte, wäre also: Man versucht die Funktion von GPCRs immer besser zu verstehen, damit man irgendwann nicht mehr Medikamente auf gut Glück drauf kippen muss und hofft, dass man irgendeines findet, welches zufällig irgendetwas an diesem GPCR bewirkt und hoffentlich nicht noch an vielen anderen Proteinen (=Nebenwirkungen). Stattdessen könnte man mit genug Informationen gezielt Medikamente entwickeln kann, die besser funktionieren und deutlich weniger Nebenwirkungen haben. Zum Teil nutzt man das schon, um Medikamente zu verbessern.
Alexander
Badesalz
2019-08-16, 17:01:06
Wie man in den Wald hineinruft...
Du solltest deinen Diskussionsstil mal dringend überdenken.Kannst du lesen? Ernsthaft. So ernsthaft wie die Frage hier nachdem wie alt ich bin. Kannst-du-lesen?
@Alex
Bist du damit auf den Link mit dem Golfstrom eingegangen? (sonst fehlt mir der Kontext). Ist überhaupt jemand auf den Link eingegangen?
Was interessiert mich was hier wer von mir denkt? Lass die Schwachen sich mit mir beschäftigen und uns restlichen mit dem Topic.
Wobei ist das sehr gewiefte finde. Der Klimaforschung-Zweig "gib mir Forschungsgelder" nenne es Unsicherheiten.
Fehlprognosen, heißen bei den Klimaforschern: Unsicherheiten. Riesen Kino. Alles studierte Leute. Wenigstens sind sie der Sprache mächtig.
Nun... https://www.scinexx.de/news/geowissen/pazifik-macht-klimaprognosen-unsicher/
Hat natürlich nichts mit dem Klimawandel zu tun. Wie schon jemand sagte, nur weil sie nichts genaueres gebacken bekommen, heißt das ja nicht, daß wir nichts tun müssen. Das sehe ich genauso. Das ist aber auch nicht das Thema.
Das Thema ist, daß mit Exa nur viel schneller Müllergebnisse bekommt, wenn man das System mit Müll füttert und durch müllige Algos jagt.
=Floi=
2019-08-16, 17:46:51
ich sehe schon unterschiede in den wettermodellen, ja der landwirt richtet sich danach und es funktioniert auch bestens. Badesalz hat wohl ein iphone und die standard wetter app wird wohl von yahoo in den usa gefüttert, weil diese eben wirklich nicht gut arbeitet. Hier kann ich seinen unmut schon verstehen.
Gerade mit der heutigen rechenleistung müsste die vorhersage auch viel genauer sein können. Sehe ich auf den regenradar regen kommen ist die app teils noch immer hoffnungslos hinterher.
edit
das thread-thema finde ich schon gut, weil man sich als laie das thema anders vorstellt und es viele bereiche gibt, welche man nicht auf dem schirm hat.
Gipsel
2019-08-16, 18:21:45
Wetter geht kaum noch.Falsch rum. Wetter geht noch kaum. Nur über relativ kurze Zeiträume läßt sich das mit zufriedenstellender Qualität vorhersagen. Vorhersagen über 2-4 Wochen eher nicht. Was hilft da? Mehr Daten (Messungen) und genauere Modelle. Beides erfordert mehr Rechenleistung.
Unsere Erfahrungswerte welche die Algos ausmachen sind fast komplett dahin.?!?
Unsere Erfahrungswerte spielen bei Wettermodellen keine sehr große Rolle. Oder was meinst Du damit?
Klima - also, kein Wetter :rolleyes: - können sie. Wenn sie das Wetter schnallen würden. Geht aber kaum noch.Wieder die falsche Wortreihenfolge. Das heißt "noch kaum", damit der Satz einen Sinn ergibt.
Jetzt sehe ich grad das hier
https://www.heise.de/newsticker/meldung/Supercomputer-USA-investieren-600-Millionen-US-Dollar-in-Atomwaffenforschung-4496745.html
Seit weivielen Jahrzehnten rechnen Supercomputer schon Nuklearsimulationen? Gibt es da noch 2020 was zu erforschen bzw. berechnen??Wie andere auch schon erwähnt haben: Seit wie vielen Jahren baut man Autos? Deswegen muß man neue Designs trotzdem simulieren. Und bei Atomwaffen gilt das noch umso mehr, weil man eben keine Tests mehr machen darf.
Was noch? Pharma? gibts nicht immernoch Rückrufe (vom Makrt nehmen), weil Leute sich von irgendetwas überraschenderwiese reihenwiese bekotzen oder besch... usw. usw.?Ja, es gibt immer noch Rückrufe und Fehlversuche bei klinischen Studien, wo etwas nicht so funktioniert wie gedacht. Und deswegen muß man in Zukunft noch viel viel mehr rechnen, um sowas zu minimieren. Da ist man doch maximal in der Anfangsphase, daß man überhaupt irgendwas rechnen kann. Genaue Wirkmechanismen usw. können doch noch gar nicht simuliert werden. Verstehe da Deinen Gedankengang überhaupt nicht.
Monger
2019-08-16, 18:54:14
Mir fällt gerade ne Geschichte von vor 20 Jahren ein. Der Vater einer Bekannten war Goldschmied, und wollte einen neuen Katalog machen. Dazu hat er einen Fotografen Bilder machen lassen, war aber mit der Qualität unzufrieden. Insbesondere wollte er die Ringe in einer anderen Perspektive haben. Er hat mich dann gefragt, weil ich mich so gut mit Computern auskenne, ob ich das fixe. Ich reagiere erschrocken bis irritiert: ein Computer kann keine Information herzaubern, wo keine ist. Seine überraschte Antwort:
"Oh... Das ist aber eigentlich sehr schwach, dass Computer sowas nicht können."
Ich glaube Laien über- und unterschätzen gleichzeitig, was Computer können.
Ironischerweise könnte genau das Szenario heute mittlerweile gehen. NVidia demonstriert ja sehr eindrucksvoll, wie man aus wenigen Bildinformationen ganze Szenen rekonstruieren kann.
Lokadamus
2019-08-16, 19:20:07
Das Thema ist, daß mit Exa nur viel schneller Müllergebnisse bekommt, wenn man das System mit Müll füttert und durch müllige Algos jagt.Damit hast du gut die Eingangsfrage zusammengefasst und beantwortet.
Wenn du das Thema ernsthaft angehen willst, kannst dich durch die ganzen Wörter arbeiten, die ich geschrieben habe. Gibt genug Sachen, wo es noch viel zu verbessern und zu erforschen gibt.
Rooter
2019-08-16, 19:28:03
NVidia demonstriert ja sehr eindrucksvoll, wie man aus wenigen Bildinformationen ganze Szenen rekonstruieren kann.Was meinst du? Link please.
MfG
Rooter
Nightspider
2019-08-16, 19:34:01
Unsere Erfahrungswerte spielen bei Wettermodellen keine sehr große Rolle. Oder was meinst Du damit?
Algorithmen werden doch ständig mit Ist-Werten (Erfahrungen) gefüttert oder?
Platos
2019-08-16, 20:14:42
@Badesalz: Was genau willst du denn nun eigentlich wissen? Wir haben dir einen Haufen Anwendungsfälle aufgezält, die ganz klar davon profitieren können. Aber du scheinst auf dem Wetter rumzureiten ? Was hast du denn mit dem Wetter ? Mein Wetterbericht ist eig. ziemlich genau, oder redest du hier von Jahresvorhersagen etc. ? Und gerade wenn die Wettervorhersage schlecht ist, gerade dann braucht man ja noch eher Supercomputer, um das zu errechnen bzw. immer bessere am besten.
NVidia demonstriert ja sehr eindrucksvoll, wie man aus wenigen Bildinformationen ganze Szenen rekonstruieren kann.
Kann nvidia nicht und auch sonst niemand und das wird man auch nie können, ohne andere Bilder von anderen perspektiven zu haben. Das einzige was man kann/könnte, ist, dass eine KI einfach annimmt, was da so in etwa sein müssste (aus Erfahrung von Bildern von anderen Ringen). D.H die Information, die dort zu finden ist, ist in über 99%-iger wahrscheinlichkeit nicht zu 100% das "Echte". Ergo ist es auch keine vollständige Rekonstruktion.
Aber das ist ja auch nvidida oder Samsung egal. Es ist ja nur wichtig, dass das so aussieht, wie man es in etwa erwartet, vor allem dann, wenn man sowieso nie das Original gesehen hat.
Monger
2019-08-16, 20:32:10
Was meinst du? Link please.
MfG
Rooter
Das meinte ich: https://www.trustedreviews.com/news/nvidia-super-resolution-tool-launch-2947926
Monger
2019-08-16, 20:35:19
Das einzige was man kann/könnte, ist, dass eine KI einfach annimmt, was da so in etwa sein müssste (aus Erfahrung von Bildern von anderen Ringen). D.H die Information, die dort zu finden ist, ist in über 99%-iger wahrscheinlichkeit nicht zu 100% das "Echte". Ergo ist es auch keine vollständige Rekonstruktion.
Klar, aber es ist mittlerweile gut genug, dass man es nicht erkennen würde.
Platos
2019-08-16, 21:24:52
Ja, das ist schon richtig. Samsung macht das ja auch oder will es (bin gerade nicht auf dem neuestem Stand) in ihren 8K TVs.
Lokadamus
2019-08-16, 21:28:33
Kann nvidia nicht und auch sonst niemand und das wird man auch nie können, ohne andere Bilder von anderen perspektiven zu haben.:| Spontan würde ich behaupten, das Programm muss in der Lage sein Objekte wie Tische, Äpfel usw. zu erkennen und daraus ala Raytracing 3D Objekte zu erschaffen.
https://www.youtube.com/watch?v=n-OPvWUEEnA
2D Object umgewandelt in Vectorgrafik und dadurch lässt es sich drehen. Wenn ich es richtig verstanden habe.
Hab keine Lust weiter zu schauen, ob es bessere Lösungen gibt. https://www.google.com/search?&q=make+picture+to+3d
Rooter
2019-08-16, 22:07:20
Ja, das ist schon richtig. Samsung macht das ja auch oder will es (bin gerade nicht auf dem neuestem Stand) in ihren 8K TVs.So wie das Huawei P30 Pro Mondfotos verbessert (https://www.google.de/search?q=huawei%20moon)...
Das finde ich nicht okay, wenn man vorher nicht gefragt wird! :mad:
Aber am TV fände ich es okay wenn da aus SD FHD "gezaubert" wird. Klar ist es nicht echt aber bestimmt besser als bicubic.
MfG
Rooter
Platos
2019-08-17, 01:35:07
Das ist dann schon was anderes. Wenn man reale Dinge "verbessert" muss man sich dann irgendwann fragen, ab wann es fälschung ist. Mondbilder zu "verbessern", halte ich für Fragwürdig. Oder allgemein alles, was eben real ist. Man denke nur an szenarien wie Gesichtserkennung, bei Verbrechen. Aber allg. finde ich das "verbessern" von Fotos nicht zielführend, wie übermässige Farben und co. Ich will ja schliesslich sehen, wie es wirklich aussieht, und keine Fantasiewelt. Mit solchen "Foto-Verbesserer" drifted man immer mehr in die Richtung.
Aber bei erschaffenem Content wie Videospiele und Filme, finde ich das jetzt nicht tragisch, wenns eben gut aussieht.
Gipsel
2019-08-17, 04:42:30
Algorithmen werden doch ständig mit Ist-Werten (Erfahrungen) gefüttert oder?Na wenn Du meinst, daß man die zum Test mit historischen Meßwerten füttert und dann schaut, wie gut ein Modell mit der spätel beobachteten Realität zusammenpaßt, dann ja. Aber so "Erfahrungswerte" wie die Bauernregeln fließen da eher nicht ein.
Lokadamus
2019-08-17, 06:37:43
Das ist dann schon was anderes. Wenn man reale Dinge "verbessert" muss man sich dann irgendwann fragen, ab wann es fälschung ist. Gibt die Seite, wo NVidia's KI Gesichter generiert. Bei dem einen finde ich die Augen etwas unpassend, aber realistisch. Beim 2. nicht und beim 3. ist irgendwas beim Ohr, was ich schon auf einem anderen Bild gesehen habe.
https://thispersondoesnotexist.com/
Badesalz
2019-08-17, 11:47:07
@Loki
Ich denke das Thema erst in die verkehrte Richtugn zerren um dann komplett ins OT zu schieben verträgt sich nicht mit dem was du ganz zu Anfang postuliert hast. Daß du mit dieser Forenerfahrung "die ganze Palette" beherrscht, das zweifle ich ja nicht an. Wars das aber jetzt? Danke.
@all
Das was =Floi= und Gipsel schreiben ist wirklich so. Erst vor nichtmal einem Monat hat mir wer erzählt, daß WetterApps getestet wurden und die Gratisprogramme weit hinter Bezahlware hinterher hinken :ulol: Aber, wie gesagt, auch die einen sind den anderen so 1-2 Tage (und halt innerhalb des Tages) vorraus, besser. Mehr auch nicht. 5-6 Tage schon kaum.
Im Gründe wird alles wo es nicht mehr um "was kommt woher an und wann wird das wie am Punkt XY", sondern "wie könnte es sich entwickeln", schlecht und schlechter als früher. Wegen dem Klimawandel.
Somit ist das Anlernen der Algos mit früheren Daten und den beobachteten Ergebnissen, nur noch halb soviel Wert wie früher. Und die Vorhersagen damit weniger als halb so gut wie vor 10 Jahren.
Daher meine Frage was die mit noch mehr Rechenleistung bewirken wollen.
Die EINE Idee von Loki zu Atomwaffen war gut. Sonst fehlt uns wohl der Hintergrund um sich noch was dazu zusammendichten zu können. Deswegen hab ich ja auch nur paar Fragen gestellt. Viele Leute wissen mehr (oft ;)).
Was Pharma rechnet weiß ich nicht. Sie produzieren genug Fauxpase pro Jahr. Und das wo die Sachen auch noch durch die Testgruppen gelaufen sind.
Ich hab aber auch keinen Überblick über die Evolutionen und gelegentliche Revolutionen (?) was Medikamente angeht. Was lässt sich da in den letzten 20 Jahren auflisten? Was davon auf Supercomputer beziehen?
Flüssigkeiten und Gase ist ok. Ich sehe aber nichts was sich in der zivilen Wirtschaft wirklich auswirkt. Sonst wer hier? Jedenfalls nichts, was man nicht auch mit z.b. der DGX Station in 1h durchrechnen lassen kann.
Materialforschung. Graphen wurde genannt. Graphen, im Gegensatz zu z.b. Phosphoren, verhält sich dermassen anders als das womit wir bisher Erfahrungen haben, daß die Forschung und Entwicklung noch Lange weitgehend in den Laboren stattfinden wird und nicht auf einer CPU.
Welche Materialien verdanken wir überhaupt und bisher dem Supercomputer?
Wie vom Anfang an GESAGT, ich frag nicht nach der Sinnhaftigkeit von Supercomputern. Ich frag mich wofür wir ab spätestens Peta und jetzt Exa diese Leistung brauchen bzw. was wir denn real damit machen.
ps:
Singapur hat seit einigen Jahren auch seinen einzigen Supercomputer. Sie rechnen damit vor allem wie sie sich auf fette Tsunamis besser einstellen könnten. So kommunizieren sie das jedenfalls. Ok. Kann man nehmen.
Distroia
2019-08-17, 12:33:47
Das was =Floi= und Gipsel schreiben ist wirklich so. Erst vor nichtmal einem Monat hat mir wer erzählt, daß WetterApps getestet wurden und die Gratisprogramme weit hinter Bezahlware hinterher hinken :ulol: Aber, wie gesagt, auch die einen sind den anderen so 1-2 Tage (und halt innerhalb des Tages) vorraus, besser. Mehr auch nicht. 5-6 Tage schon kaum.
Im Gründe wird alles wo es nicht mehr um "was kommt woher an und wann wird das wie am Punkt XY", sondern "wie könnte es sich entwickeln", schlecht und schlechter als früher. Wegen dem Klimawandel.
Somit ist das Anlernen der Algos mit früheren Daten und den beobachteten Ergebnissen, nur noch halb soviel Wert wie früher. Und die Vorhersagen damit weniger als halb so gut wie vor 10 Jahren.
Daher meine Frage was die mit noch mehr Rechenleistung bewirken wollen.
Mal davon abgesehen, dass deine Texte kaum zu verstehen sind ... Zeig uns erstmal, dass Wettervorhersagen schlechter werden oder lass es. Deine anekdotischen Erfahrungen zählen nicht. Ich habe dir einen Link mit einem Artikel gegeben, in dem die Zuverlässigkeit von Wettervorhersagen im Laufe der Zeit untersucht wurde, auf den die nicht eingegangen bist. Statt dessen kam das hier:
Welche Statistik zeigt, es wäre anders? Wenn es jedem der ein simples Satbild deuten kann glasklar ist, es wird die nächsten 3 Tage >20°C bleiben und es wird nicht regnen, dann war die Wettervorhersage natürlich 3 Tage lang zu 100% ok. Ok, wenn man dann am 4ten Tag sagt, es bleibt trocken, und es regent… Hej 3 Tage 100% goldrichtig und an einem Tag falsch… ISt doch nicht so schlecht oder? :freak:
Fall du ihn übersehen hast:
https://www.forecastwatch.com/wp-content/uploads/High_Temperature_Accuracy_Study_12_Years.pdf
Du scheinst generell nicht wirklich zu lesen und zu verstehen, was andere schreiben. Da werden Argumente von dir widerlegt und du gehst einfach nicht darauf ein sondern kommst einfach wieder mit der ursprünglichen Behauptung, so wie die Sache mit dem Füttern von Erfahrungswerten für die Wettervorhersage.
Badesalz
2019-08-17, 21:24:00
Warum so hochnäsig überheblich? Ich habs in der Tat übersehen. Jetzt lese ich es und versuche es zu verstehen. Als erstes sehe ich, das sind "national" Daten der USA. Ich muss leider zugeben, ich war noch nie bei den Amis. Aber ich freue mich für sie, daß NCDC bei denen gut funktioniert. Was genau hab ich davon?
(ich lese trotzdem weiter)
Apropos. bist du schon einem Link von mir gefolgt und hast hier was dazu erzählt?
Statt sich mit meiner Person (mal wieder :uclap:) zu beschäftigen? Hast du irgendetwas vorzuweisen, um "uns zu zeigen", du wärest besserer Soziologe als ich ein Wetterfrosch? Nur zu. Sonst, bleib beim Thema.
Zum Thema (allgemein, ich suche NIE nach Bestätigung. Ich suche immer nach Infos)
https://www.welt.de/wirtschaft/webwelt/article176017770/Diese-Wetter-Apps-liefern-die-genauesten-Vorhersagen.html
https://www.augsburger-allgemeine.de/panorama/Warum-ist-die-Wettervorhersage-so-oft-falsch-id37400427.html
https://www.heise.de/multimediadatei/Jahrhundertregen-statt-leichter-Bewoelkung-Warum-ist-die-Wettervorhersage-so-ungenau-1510311.html
Ab 9ten Tag schaut man lieber zurück, als was zu berechnen. Da mein ich, für die nächsten 4 Tage das Wetter zu vorhersagen, dafür braucht man keine Petascale Supercomputer oder??
https://www.n-tv.de/wissen/frageantwort/Warum-greift-die-Wettervorhersage-so-kurz-article19026646.html
Mal eine weder kritische noch unkritische, sonder weitgehend ehrliche Auseinandersetzung mit den Problemen, DIE MAN ZUGIBT. Wenn man mit euch redet gibt es überhaupt keine Probleme, alles funktioniert ausgezeichnet :freak:
http://scienceblogs.de/weatherlog/2009/07/15/wieso-ist-die-wettervorhersage-so-oft-falsch/
Der durchschnittliche Fehler (Amistudie) hat sich von 7°F auf 5°F reduziert. Bei denen also. Zwischen 2005 und 2016. Auch nicht so die Welt (1°F ist in etwa ~0.556°C), aber ok. Wegen den neuen Generationen von Supercomputern?
Hier geht es ja nicht grundsätzlich um Wettervorhersagen...
Aber, besser wirds einfach nicht. Dafür werden die spendierten Supercomputer trotzdem immer schneller. Bringt halt nur wenig.
https://www.waz.de/region/rhein-und-ruhr/warum-14-tage-prognosen-fuer-wetter-unsinn-sind-id4895001.html
Distroia
2019-08-18, 14:55:21
@Badesalz
Schön, dass du wenigstens einigermaßen seriöse Quellen liest und nicht irgendwelche Verschwörungsseiten oder ähnliches. Allerdings sind einige davon schon ganz schön alt dafür, dass wir über die Verbesserung der Wettervorhersage in den letzten Jahren reden .
Niemand hier hat behauptet, es gäbe überhaupt keine Probleme. Wir wissen alle, dass man das Wetter nur für wenige Tage einigermaßen zuverlässig vorhersagen kann.
Der durchschnittliche Fehler (Amistudie) hat sich von 7°F auf 5°F reduziert. Bei denen also. Zwischen 2005 und 2016. Auch nicht so die Welt (1°F ist in etwa ~0.556°C)
Da sollte man auch dazuschreiben, dass es um 5-Tages-Vorhersagen geht und das ist eben schon eine ziemlich weiter Vorhersage heute.
Lokadamus
2019-08-18, 16:10:27
1.) Das was =Floi= und Gipsel schreiben ist wirklich so. Erst vor nichtmal einem Monat hat mir wer erzählt, daß WetterApps getestet wurden und die Gratisprogramme weit hinter Bezahlware hinterher hinken :ulol: Aber, wie gesagt, auch die einen sind den anderen so 1-2 Tage (und halt innerhalb des Tages) vorraus, besser. Mehr auch nicht. 5-6 Tage schon kaum.
2.) Daher meine Frage was die mit noch mehr Rechenleistung bewirken wollen.
3.) Die EINE Idee von Loki zu Atomwaffen war gut. Sonst fehlt uns wohl der Hintergrund um sich noch was dazu zusammendichten zu können. Deswegen hab ich ja auch nur paar Fragen gestellt. Viele Leute wissen mehr (oft ;)).
4.) Was Pharma rechnet weiß ich nicht. Sie produzieren genug Fauxpase pro Jahr. Und das wo die Sachen auch noch durch die Testgruppen gelaufen sind.
Ich hab aber auch keinen Überblick über die Evolutionen und gelegentliche Revolutionen (?) was Medikamente angeht. Was lässt sich da in den letzten 20 Jahren auflisten? Was davon auf Supercomputer beziehen?
5.) Flüssigkeiten und Gase ist ok. Ich sehe aber nichts was sich in der zivilen Wirtschaft wirklich auswirkt. Sonst wer hier? Jedenfalls nichts, was man nicht auch mit z.b. der DGX Station in 1h durchrechnen lassen kann.
Materialforschung. Graphen wurde genannt. Graphen, im Gegensatz zu z.b. Phosphoren, verhält sich dermassen anders als das womit wir bisher Erfahrungen haben, daß die Forschung und Entwicklung noch Lange weitgehend in den Laboren stattfinden wird und nicht auf einer CPU.
Welche Materialien verdanken wir überhaupt und bisher dem Supercomputer?
6.) Wie vom Anfang an GESAGT, ich frag nicht nach der Sinnhaftigkeit von Supercomputern. Ich frag mich wofür wir ab spätestens Peta und jetzt Exa diese Leistung brauchen bzw. was wir denn real damit machen.
ps:
Singapur hat seit einigen Jahren auch seinen einzigen Supercomputer. Sie rechnen damit vor allem wie sie sich auf fette Tsunamis besser einstellen könnten. So kommunizieren sie das jedenfalls. Ok. Kann man nehmen.1.) Wenn das so ist, dann lass dir von der Person auch mal den Test zeigen.
Welche Seite gute Werte von 5 - 7 Tage anzeigt, hatte ich dir schon genannt. Fehlerfrei ist sie nicht, aber nah dran an den Temperaturschwankungen und bezogen auf Regen meistens genau genug.
2.) Diese Frage solltest du dir selber beantworten können. Genau aus diesem Grund habe ich auf den C64 verwiesen. Genau die Frage kam auf, als der P4 präsentiert wurde (Anfang der 00er Jahre), ebenso die Frage warum man mehr Kerne in einer CPU brauchen könnte. Ich weiß nicht, was du für ein System hast, aber du kannst aus Langeweile mal dein System auf 1 Kern reduzieren. Danach solltest du merken, warum man immer nach mehr Leistung strebt.
Wo man mehr Rechenleistung im Militärbereich eingesetzt hat: https://de.wikipedia.org/wiki/Tarnkappentechnik#Assault_Breaker
3.) Da kann man sich noch mehr Gedanken zu machen. Am Ende geht es einfach um die Standardsachen: Effektivität steigern bei kleinerer Masse, sprich gleiche oder größere Explosion bei weniger Materialeinsatz.
4.) Einer hier im Thread hatte doch von seiner Arbeit berichtet. Dürfte in die gleiche Richtung gehen, nur dass Pharma noch auf Patente achten und Medikamente zurückhalten, bis das Patent abgelaufen ist. Dann wird ein Nachfolgemedikament präsentiert und das Patent erneuert.
5.) Dazu müsste man wissen, woran wer was forscht und was daraus an Erfahrungen gesammelt werden. Nächste Frage wäre, welche Produkte daraus entstehen können und auch rentable herzustellen wären.
6.) Wurde schon beantwortet, hast du aber ignoriert. Überlesen wäre falsch, da es mehrfach geschrieben wurde. Neben Klima gibt es noch Erdbebenforschung.
Einfaches Beispiel, wo jemand privat Rechenleistung reingebuttert hat: https://www.golem.de/news/star-trek-fan-laesst-durch-ki-deep-space-nine-in-1080p-glanz-erstrahlen-1903-140189.html
Und nun stell dir mal vor, das sollte auf einem alten P4 oder C64 berechnet werden. Der Gedanken "Aber wir haben doch heute genügend Rechenleistung" ist falsch. 8k und 16K sind in Vorbereitung.
Edit: Hab mal die 16 Tage Vorschau rangehangen. Wenn ich es nicht vergesse, kann man alle paar Tage mal schauen, in wie weit sie gestimmt hat.
Melbourne, FL
2019-08-19, 09:23:51
Wie vom Anfang an GESAGT, ich frag nicht nach der Sinnhaftigkeit von Supercomputern. Ich frag mich wofür wir ab spätestens Peta und jetzt Exa diese Leistung brauchen bzw. was wir denn real damit machen.
Hab ich Dir doch ausführlich beschrieben...unten nochmal als Full-Quote. Dazu bin ich glaube ich der einzige hier im Thread der auf Supercomputern rechnet. Warum ignorierst Du also meinen Beitrag wenn er genau Deine Frage beantwortet?
Du hast die Fragerei nur zu 50% verstanden. Oder du lässt dich von der Idiotie der sonstigen Antworten anstecken. Ich hab nicht gefragt wozu man das überhaupt macht. Ich hab gefragt was es bei vielen dieser Sachen dadurch noch zu entdecken gibt. Und wozu wir auch noch Exa dafür brauchen.
Du beschwerst Dich doch, dass Wettervorhersage und Klimamodelle noch nicht perfekt sind. Und ja das sind sie noch nicht. Und ja, dass lässt sich mit mehr Rechenpower deutlich verbessern.
Am besten würde man jedes Atom der Atmosphäre einzeln berechnen...am besten auf quantenmechanischem Niveau. Dann könnte man sehr sehr gute Vorhersagen machen. Das kann man aber nicht in halbwegs sinnvoller Zeit ausrechnen. Selbst auf dem schnellsten Supercomputer würde man für nur ein einzelnes Frame Jahrhunderte brauchen (und das ist noch tief geschätzt). Deswegen muss man vereinfachen...und zwar massiv...man braucht ja nicht nur ein Frame sondern viele Frames. Und das kostet Präzision...sehr viel Präzision. Wenn der Rechner schneller wird muss man entsprechend weniger vereinfachen und bekommt präzisere Ergebnisse...also bessere Voraussagen.
@Alex
Ja, die Frage eben, was man an einem Atomsprengkopf 2020 besser machen kann.
Da bin ich kein Experte deswegen kann ich nicht viel dazu sagen. Aber da das Ganze ein höchst komplexer Vorgang ist, kann ich mir gut vorstellen, dass es da viele Stellschrauben gibt...mal vom generellen Unsinn von Nuklearwaffen abgesehen.
Meinst du wenn die Autohersteller soviel am Dieselmotor gerechnet hätten, wäre das heute 30x30cm klein, würde 10kg wiegen, 2.5L/100km verbrauchen und hätte 180PS? Oder so?
Ich weiß nicht ob das ein gutes Beispiel für Simulationen ist. Ein gutes ist z.B. die Optimierung von Karosserieformen bzgl. Luftwiderstand. Nicht jede Anwendung profitiert ähnlich bzw. lässt sich gut über Supercomputer untersuchen.
Davon rede ich doch. Den Trend der immer stimmt, das konnte man schon vor 10 Jahren rechnen. Mit Tera, nicht mit Peta.
Mit steigender Rechenleistung werden die Trends aber besser und sind näher an der Realität...siehe oben.
Grundlagenforschung ist immer top. Trotzdem verspricht man sich irgendeinen Nutzen, irgendwann. Sei es nur groben, aber eben notwendigen. Alles gut. Um was geht es da diesbezüglich?
Das ist die landfäufige Meinung über Grundlagenforschung, die aber leider vollkommen falsch ist. Frag doch mal Albert Einstein 1915 wozu seine allgemeine Relativitätstheorie gut ist. Dem wäre außer Astrophysik im Extrembereich wahrscheinlich nicht viel eingefallen. Heute würde kein GPS ohne Relativitätstheorie funktionieren. Oder frag Werner Heisenberg 1930 wozu die Quantenmechanik gut ist. Heute würde kaum etwas ohne Quantenmechanik funktionieren...vor allem nicht die Rechner/Handys an denen wir gerade sitzen.
Oder ein aktuelleres Beispiel: frag Andre Geim und Konstantin Novoselov wieso man mit Klebeband und Graphit (das Material, aus dem eine Bleistiftspitze besteht) rumspielen sollte. Dafür gab es dann 2010 den Nobelpreis (https://www.spiegel.de/wissenschaft/mensch/auszeichnung-fuer-graphen-entdecker-mit-klebeband-zum-physik-nobelpreis-a-721370.html).
Trotzdem möchte ich auf Deine Frage bzgl. meiner Forschung etwas genauer eingehen. Die Proteine die wir untersuchen gehören zu den GPCRs. Das sind Proteine die in enorm wichtigen Signalwegen eine absolute Schlüsselfunktion übernehmen. Ca. 30% aller aktuellen Medikamente haben einen solchen GPCR zum Ziel...also docken an den dran und verändern irgendwie seine Funktion. Und bei den meisten hat man nicht die geringste Ahnung wie das funktioniert. Meist weiss man noch nicht mal, wie der GPCR aussieht, geschweige denn, was das Medikament mit dem GPCR macht.
Die erste Struktur eines menschlichen GPCR hat man 2007 aufklären können. Heute kennt man die Strukturen von so ca. 40 verschiedenen GPCRs. Es gibt im Menschen aber ca. 800 verschiedene GPCRs. Noch dazu verrät einem die Struktur erstmal nicht viel sondern stellt viel mehr den Startpunkt dar, von dem aus man versuchen kann, mehr über die Funktion des GPCRs zu lernen. Und da helfen unsere Simulationen, da sich herausgestellt hat, dass die Funktion von GPCRs zu einem Großteil mit seinen Bewegungen zu tun hat...und da helfen starre Strukturen nicht viel. Man hat also schon viel über diese Proteinklasse gelernt und steht trotzdem noch ziemlich am Anfang.
Das langfristige Ziel, dass man hier formulieren könnte, wäre also: Man versucht die Funktion von GPCRs immer besser zu verstehen, damit man irgendwann nicht mehr Medikamente auf gut Glück drauf kippen muss und hofft, dass man irgendeines findet, welches zufällig irgendetwas an diesem GPCR bewirkt und hoffentlich nicht noch an vielen anderen Proteinen (=Nebenwirkungen). Stattdessen könnte man mit genug Informationen gezielt Medikamente entwickeln kann, die besser funktionieren und deutlich weniger Nebenwirkungen haben. Zum Teil nutzt man das schon, um Medikamente zu verbessern.
Alexander
Eine Ergänzung noch: Tatsächlich ist es wahrscheinlich eher selten so, dass ein kompletter Supercomputer für einen einzelnen Rechenjob benutzt wird. Unsere Arbeitsgruppe rechnet z.B. recht viel auf SuperMUC...sind gerade auf SuperMUC NG umgestiegen. Das ist aktuell der neuntschnellste Rechner der Welt...der zweitschnellste in Europa. (https://www.top500.org/lists/2019/06/) Auf diesem Rechner rechnen unglaublich viele Arbeitsgruppen gleichzeitig. Es nutzt also keiner den kompletten Rechner gleichzeitig. Überhaupt werden nur sehr wenige Jobs überhaupt so viel Rechenleistung brauchen und gleichzeitig so gut parallelisierbar sein, dass man wirklich 311040 Threads gleichzeitig laufen lassen kann. Insofern hast Du damit schon recht.
Aber gleichzeitig wollen immer mehr Unis, Firmen, etc. auf solchen Rechnern rechnen. Deswegen braucht man immer größere davon, dass sich immer mehr User den teilen. Hier mal der Link zur Beschreibung des Batch-Systems (https://doku.lrz.de/display/PUBLIC/Job+Processing+with+SLURM+on+SuperMUC-NG). Dort sieht man, dass es eine Partition (large) gibt, bei der man bestenfalls die Hälfte des Rechners gleichzeitig belegen kann...für 24h. Und dann wartet man bestimmt ziemlich lange, bis der Job dran kommt. Wir rechnen meist auf Micro, damit der Job nicht so lang in der Queue hängt.
Alexander
Lokadamus
2019-08-21, 22:46:34
Also wegen dem Wetter, das stimmt wirklich nicht ganz. Während der Screenshot vor ein paar Tagen zeigt, dass es Donnerstag eher kühl sein sollte, ist es momentan so, dass für die nächsten Tage 25 und ein bischen mehr angezeigt werden. Mal schauen, wie es wird.
Andere Sache zum Thema Supercomputer und wofür die Rechenleistung benutzt werden kann. Und ja, da gibt es kein Limit, was Rechenleistung angeht.
https://www.golem.de/news/spielestreaming-200-millionen-stadia-spieler-waeren-ein-fehlschlag-1908-143360.html
In den Rechenzentren seien simulierte Welten von bislang ungeahnter Größe möglich.
Platos
2019-08-21, 23:17:35
Gibt die Seite, wo NVidia's KI Gesichter generiert. Bei dem einen finde ich die Augen etwas unpassend, aber realistisch. Beim 2. nicht und beim 3. ist irgendwas beim Ohr, was ich schon auf einem anderen Bild gesehen habe.
https://thispersondoesnotexist.com/
Wirklich ziemlich sicher sind Wetterberichte ja normalerweise auch kaum über 2-3 Tage.
Artemis-Programm: Neuer Supercomputer simuliert die Mondlandung 2024
https://www.computerbase.de/2019-08/artemis-programm-supercomputer-mondlandung-2024/
Badesalz
2019-08-23, 23:07:27
@Badesalz
Schön, dass du wenigstens einigermaßen seriöse Quellen liest und nicht irgendwelche Verschwörungsseiten oder ähnliches.Wie nochmal käme ich dazu, sowas zu tun?
@Melbourne, FL
Ich hab nicht gefragt wozu wir rechnen, sondern was alles. Und du erzählst mir, ich lese nicht richtig? Du hast trotzdem aber einen Punkt gebracht den ich kannte, bei der Frage (erregt wegen einer wieder recht mieser Wettervorhersage :ulol:) vom Schirm verlor:
Das ist natürlich wirklich so, daß Superkomputer nicht nur einzelne Jobs erledigen. Da laufen zig bis hunderte Jobs gleichzeitig. Immer.
Das ist natürlich ein guter Punkt.
Hat wer schon mal durchsickern lassen wir sich das im Schnitt so (unterhalb der Top20), zwischen Militär, Forschung und Wirtschaft verteilt? :cool:
Lokadamus
2019-08-25, 12:10:59
Wirklich ziemlich sicher sind Wetterberichte ja normalerweise auch kaum über 2-3 Tage.Irgendwie hast du mich da falsch zitiert.
Wenn ich mir die letzten Tage vom 2. Screenshot anschaue, passt das Wetter relativ gut. Es sollte am Wochenende warm werden, es ist warm. Von Regen bisher keine Spur und in der Woche war einmal am Montag ein kleiner Regenschauer. So gesehn weiß ich nicht genau, wo das Problem ist. Dass es statt 25 Grad 28 sind, ist mir wumpe. Ab 25 - 27 Grad fängt bei mir "zu warm zum Arbeiten" an.
Platos
2019-08-25, 12:33:27
Als ob man die Genauigkeit jetzt über diesen einen Fall beurteilen könnte. Abgesehen davon ist es egal, ob dich ein Unterschied nicht kümmert. Das war ja nicht die Aussage, sondern dass die Wetterberichte nicht genau sind nach 2-3 Tagen Voraussage. Das heisst ja nicht, dass sie immer völlig falsch sind.
Poste doch nochmals einen Screenshot, heute noch am besten( damit man den 1. auch noch nutzen kann). Der Unterschied von deinem letzten Bild und dem vorletzten ist ja schon rieseg. 21° vs. 27° heute. Ist bei euch jetzt wirklich 27°?
Lokadamus
2019-08-25, 13:42:05
Äh, nee. Das sind die normalen Ergebnisse, wenn du häufiger da guckst. Hatte ich auch schon am Anfang geschrieben.
Momentan sind die Angaben aber völlig unbrauchbar. 30Grad??? Direkt in der Sonne wohl. Hier im Zimmer sollen es laut altem Meßdingsbums 27Grad sein und gefühlt sind es nur ca. 24Grad, also angenehm trotz Fenster auf.
Melbourne, FL
2019-08-26, 10:01:45
Hat wer schon mal durchsickern lassen wir sich das im Schnitt so (unterhalb der Top20), zwischen Militär, Forschung und Wirtschaft verteilt? :cool:
Genau weiß ich es nicht aber ich vermute, die großen bekannten Supercomputer in Deutschland und Europa werden primär für Forschung und Entwicklung eingesetzt...zum größten Teil vermutlich aus dem universitären Bereich. Die Dinger sind soweit ich weiß staatlich finanziert. Um Rechenzeit zu bekommen, muss man einen Antrag schreiben, in dem man sein wissenschaftliches Projekt beschreibt.
In wie weit die Industrie hier Möglichkeiten hat, sich einzukaufen, weiß ich nicht. Die größeren Unternehmen haben vermutlich eher eigene (kleinere) Rechner.
Das Militär wird nicht auf den großen bekannten Rechnern rechnen...zumindest nicht in Europa. Die schaffen wegen Geheimhaltung etc. bestimmt ihre eigenen Rechner an.
Das ist alles Vermutung und Spekulation, da ich nichts über die anderen Jobs weiß, die in der Queue sind...aber es würde mich überraschen, wenn es sehr viel anders wäre.
Alexander
Platos
2019-08-26, 15:35:57
Äh, nee. Das sind die normalen Ergebnisse, wenn du häufiger da guckst. Hatte ich auch schon am Anfang geschrieben.
Momentan sind die Angaben aber völlig unbrauchbar. 30Grad??? Direkt in der Sonne wohl. Hier im Zimmer sollen es laut altem Meßdingsbums 27Grad sein und gefühlt sind es nur ca. 24Grad, also angenehm trotz Fenster auf.
Was meinst du jetzt mit, das sind normale Ergebnisse? Wie man sieht, sind diese ja ziemlich daneben. 21° vs 30° real. Was du fühlst und die Temp. in deinem Zimmer ist ja jetzt aber nicht wichtig für die Lufttemp. aussen.
Die Temperaturen, die da stehen, sind meins Wissen nach aber die Max. Temperaturen an diesem Tag. Allerdings unterscheiden die sich um 9°, das ist sehr viel. Also je nach Wetterbericht-App kann man normalerweise auf den Tag klicken und dann so im 2h Takt die Temps. anschauen.
Was du eig. mit dem ganzen sagen willst, verstehe ich nicht ganz. Willst du jetzt sagen, der Wetterbericht sei auf diese Zeit genau? Das könntest du ja nicht wirklich behaupten, bei 9° Unterschied.
Lokadamus
2019-09-01, 07:29:57
Was meinst du jetzt mit, das sind normale Ergebnisse? Wie man sieht, sind diese ja ziemlich daneben. 21° vs 30° real. Was du fühlst und die Temp. in deinem Zimmer ist ja jetzt aber nicht wichtig für die Lufttemp. aussen.
Die Temperaturen, die da stehen, sind meins Wissen nach aber die Max. Temperaturen an diesem Tag. Allerdings unterscheiden die sich um 9°, das ist sehr viel. Also je nach Wetterbericht-App kann man normalerweise auf den Tag klicken und dann so im 2h Takt die Temps. anschauen.
Was du eig. mit dem ganzen sagen willst, verstehe ich nicht ganz. Willst du jetzt sagen, der Wetterbericht sei auf diese Zeit genau? Das könntest du ja nicht wirklich behaupten, bei 9° Unterschied.2-3 Grad Schwankungen, alleine schon wegen Schatten, halte ich für normal. Das ist das, was für Badesalz unbrauchbar ist.
Mir ist in diesem Sinne wichtiger, dass die Angabe wegen Regen stimmen.
Wie kommst du auf 21Grad? Die angegebenen Temperaturen sind die Höchsttemperatur und die niedrigste Temperatur für diesen Tag. Sprich, dass eine meistens für Mitternacht, das andere für Mittag.
Wie du selber sagst, gibt es noch die Stundenanzeige. Die interessiert mich persönlich in den meisten Fällen nicht.
Badesalz
2021-07-28, 12:42:35
Mal aufwärmen ;)
Kann mich wer aufklären für was "AI" alles taugt?
Ich verstehe grad weniger wie das für die Berechnung/Erstellung von 3D "Karten" genutzt werden kann :confused:
https://www.theregister.com/2021/05/27/most_powerful_ai/
Oder ist das nur PR-Bullshit?
Mal aufwärmen ;)
Kann mich wer aufklären für was "AI" alles taugt?
Ich verstehe grad weniger wie das für die Berechnung/Erstellung von 3D "Karten" genutzt werden kann :confused:
https://www.theregister.com/2021/05/27/most_powerful_ai/
Oder ist das nur PR-Bullshit?
Das ist tatsächlich nur PR. Das Ding wird laut Text für klassische Simulationen verwendet, da wird nicht ein einziger AI Anwendungsfall genannt.
Tobalt
2021-07-28, 19:44:42
Der Begriff AI ist eh völlig ausgetreten, und von PR Abteilungen zu Brei geschlagen. Er hat heute absolut keine Konsistenz und Bedeutung mehr.
Was? Ihr fittet eure Daten mit 100 Freiform-Parametern ohne physikalisch analystisches Modell ? AI!!111111 Machine Learning!!11
Was ?? Ihr abstrahiert Korrelationen in den Fit-Parametern durch eine geringere Anzahl gewichteter Fit-Parameter ?? DNN!!!11111
Da muss wirklich nichts "intelligentes" und mensch-nachahmendes mehr passieren damit heute etwas Machine Learning heißen darf.. Leider publiziert sich diese Seuche halt nach wie vor von selbst, weshalb immer noch weitere Nachzügler auf den Zug aufspringen. Und die Fördermittelträger kriegen vor lauter Ejakulieren scheinbar auch nicht mit, dass es zu 99% nur Buzzwort Geblubber ist.
On-Topic: Supercomputer rechnen gefühlt zu mindestens 50% irgendeinen belanglosen Stuss, der aus o.g. Förderprojekten hervorgeht
Badesalz
2021-07-29, 11:02:24
On-Topic: Supercomputer rechnen gefühlt zu mindestens 50% irgendeinen belanglosen Stuss, der aus o.g. Förderprojekten hervorgeht
Dafür aber bald in Exascale-Regionen... Ich hab mir gestern mal die ersten 5 gefundenen Werbevids (unter 5min.) auf YT zum Thema Exascale reingezogen. Die waren alle 1:1 copypaste mit denen, die es zu Petascale gab.
Wir stampfen aber mit einer Vehementz dashin, als wenn unser Überleben davon abhängen würde. Ich fragte mich dann inwiefern, aber da findet sich nichts neues.
Die ganze Anlage bekommt eh niemand zur Verfügung. Vielleicht ab und zu ein "code physician"... des Energieministeriums.
Die MI200 wird jetzt ausgeliefert ohne vorgestellt worden zu sein :ugly: Das gleiche gilt eigentlich für Trento. Hier paar Allgemeininfos, wer das am Rande mitverfolgt
https://www.nextplatform.com/2021/06/01/amd-wants-to-put-together-the-complete-package/
https://www.hardwaretimes.com/amd-instinct-mi200-in-h2-2021-4x-mi200-gpus-paired-per-epyc-trento-cpus-via-infinity-fabric-3-0/
Lokadamus
2021-07-31, 04:10:10
Mal aufwärmen ;)
Kann mich wer aufklären für was "AI" alles taugt?
Ich verstehe grad weniger wie das für die Berechnung/Erstellung von 3D "Karten" genutzt werden kann :confused:
https://www.theregister.com/2021/05/27/most_powerful_ai/
Oder ist das nur PR-Bullshit?Dürfte um solche Sachen gehen.
Halte es darum nicht für reines PR, sondern einen effektiven Einsatz von selbstlernender KI ähnlich den Proteinen, was Deepmind erkennen kann.
07.2021 (Proteine statt Weltall)
https://www.heise.de/hintergrund/Wie-DeepMind-die-Struktur-aller-bekannten-Proteine-entschluesseln-will-6146976.html
04.2021
https://www.heise.de/news/Wuerzburger-Forscher-wollen-Kuenstliche-Intelligenz-im-Weltraum-trainieren-6016185.html
2017
https://www.scinexx.de/news/kosmos/ki-entdeckt-stern-mit-acht-planeten/
ChaosTM
2021-07-31, 07:57:23
95% der Supercomputer Zeit geht mittlerweile für verblödetes Mining drauf. Die Admins sind unterbezahlt. ;)
95% der Supercomputer Zeit geht mittlerweile für verblödetes Mining drauf.
Dafür hätte ich gerne eine belastbare Quelle.
Badesalz
2021-07-31, 13:42:01
Dafür hätte ich gerne eine belastbare Quelle.Ja? Mir hätte erstmal irgendeine Quelle gereicht :rolleyes:
edit:
Ah so. Das war ein Joke =) Wenigstens hab ICH es auch verstanden ;)
ChaosTM
2022-05-30, 14:00:08
ja, war kein guter Witz..
US retakes first place from Japan on Top500 supercomputer ranking (https://www.engadget.com/us-retakes-first-place-on-top-500-supercomputer-ranking-082342025.html)
AMDs Epics arbeiteten sogar effizienter* als Fugakus custom ARM CPUs. Letzterer war immerhin 2 Jahre vorne.
Die Green Computing liste führt Frontier jetzt auch an. 53Gigaflops pro Watt kann man schon lassen, kommt mir aber etwas viel vor..tbh.
Nicht der optimale Thread aber ich wollt keinen neuen aufmachen.
Shink
2022-05-30, 14:41:32
ja, war kein guter Witz..
Mich würde das nicht einmal wundern, wenn's stimmt. In der Zeit, die ich mit Supercomputer gearbeitet hab, hab ich viel Stillstand gesehen.
Lange Zeit wurden die zugeballert mit sinnlosen Tasks wie von Tobalt genannt. Dann gab es die Direktive, dass man sie dafür nicht verwenden darf und... nun ja. Also 100% ihrer Zeit waren die bestimmt nicht belegt. Hätte es damals Mining gegeben, weiß ich nicht, was passiert wäre.:freak:
Simon Moon
2022-06-17, 23:19:31
Ich rechne ziemlich viel auf Supercomputern. Wir simulieren Proteine in einer Zellmembran. Das ist Grundlagenforschung. Aber die Proteine, die uns interessieren, sind die, welche ein Großteil der Medikamente zum Ziel hat. Unser Ziel ist es diese Proteine besser zu verstehen, da ihr Verhalten sehr komplex ist und man bisher ziemlich wenig über sie weiß.
In unserer Simulation sind alle Moleküle aus einzelnen Atomen aufgebaut. Eine Simulation hat so üblicherweise 100.000 bis 500.000 Atome. Für einen Frame müssen wir die Interaktion jedes Atoms mit jedem anderen berechnen...also extrem viele Interaktionen. Für eine halbwegs sinnvolle Simulation müssen wir aber nicht nur einen Frame berechnen sondern so ca. 1.000.000.000 (eine Milliarde).
Deswegen brauchen wir Supercomputer. Die Aufgaben kann man sehr schön parallelisieren...wir können recht problemlos 1000 Kerne gleichzeitig nutzen. Trotzdem rechnet man für so eine Simulation Wochen bis ein paar Monate.
Alexander
Ich frag mich grad, wie macht man aus all den Daten dann wieder etwas fuer uns Menschen sinnvoll Interpretierbares? Also in physikalischen Simulationen kann ich das noch nachvollziehen - da berechnet man vll. den Schmelzpunkt, die Leitfaehigkeit usw. - aber Proteine gehen ja eher in den (bio)chemischen Bereich. Da ist das ganze System ja noch eine Komplexitaetstufe hoeher - sind da die Modelle dann nicht bereits wieder etwas gar klein? Im Gegensatz zu der "Handvoll" Atomen gibts ja quasi unendlich viele Molekuele die in der Chemie miteinander interagieren und es ergibt da irgendwie wenig Sinn ein isoliertes Modell zu nehmen da man diesem - im ggs. zu bspw. einem Microchip - eh nie auch nur nahe kommt.
Also ich will dich nicht kritisieren, das sind irgendwie einfach Fragen die mir durch den Kopf gehen.
Melbourne, FL
2022-06-20, 13:11:12
Ich frag mich grad, wie macht man aus all den Daten dann wieder etwas fuer uns Menschen sinnvoll Interpretierbares? Also in physikalischen Simulationen kann ich das noch nachvollziehen - da berechnet man vll. den Schmelzpunkt, die Leitfaehigkeit usw. - aber Proteine gehen ja eher in den (bio)chemischen Bereich. Da ist das ganze System ja noch eine Komplexitaetstufe hoeher - sind da die Modelle dann nicht bereits wieder etwas gar klein? Im Gegensatz zu der "Handvoll" Atomen gibts ja quasi unendlich viele Molekuele die in der Chemie miteinander interagieren und es ergibt da irgendwie wenig Sinn ein isoliertes Modell zu nehmen da man diesem - im ggs. zu bspw. einem Microchip - eh nie auch nur nahe kommt.
Also ich will dich nicht kritisieren, das sind irgendwie einfach Fragen die mir durch den Kopf gehen.
Im Endeffekt stimmt, das meiste, das Du schreibst schon. Das System ist sehr komplex und wir berücksichtigen beileibe nicht alles davon. Aber irgendwo muss man ja anfangen. Es spricht doch nichts dagegen erstmal die Interaktion zweier Moleküle zu verstehen. In unserem Fall z.B. die zwischen einem Rezeptor und einem Liganden, der den Rezeptor aktiviert. Wenn ich diese Interaktion verstehe, kann ich gezielt in diesen Teilschritt eingreifen und so ein Medikament entwickeln.
Es kann durchaus sein, dass das Medikament dann dooferweise noch mit irgendeinem anderen Prozess wechselwirkt. Das sind dann Nebenwirkungen des Medikaments. Aber sobald man genug darüber weiß, kann man nun das Medikament modifizieren, so dass es nicht mehr in den anderen Prozess eingreift und trotzdem noch die gewünschte Wirkung hat. Aber dafür muss ich eben genug über das System wissen. Im Moment funktioniert Medikamentenentwicklung ja immer noch hauptsächlich so, dass man ausprobiert, welches Molekül aus einer Bibliothek mit vielen Millionen einen Effekt auf mein Ziel hat, ohne auch nur im Ansatz zu verstehen was da eigentlich passiert.
All das sind sehr langwierige Prozesse wo unsere Arbeit auch nur ganz am Anfang beim verstehen der Wechselwirkung liegt. Alles andere machen dann z.B. Firmen. Dafür publizieren wir unsere Ergebnisse, so dass jeder (z.B. die Firmen, die dann Medikamente entwickeln) was von den Ergebnissen hat.
Ganz generell ist es aber auch so, dass man immer erstmal mit einfachen Systemen anfängt und diese zu verstehen versucht. Und erst wenn man die verstanden hat, kann man das System komplexer machen. Wenn man direkt mit dem komplexen System anfängt, kann man häufig die Daten erstmal überhaupt nicht interpretieren, weil es aufgrund der Komplexität so viele Einflussfaktoren gibt, die man nicht voneinander trennen kann.
So habe ich z.B. in meiner Doktorarbeit die Wechselwirkung von 7 Aminosäuren eines Proteins mit einer ganz einfachen Modellmembran untersucht. Später haben wir dann die Membranzusammensetzung verändert. Dann haben wir auch mal die ganzen 181 Aminosäuren des Proteins genommen. Und zum Schluss haben wir echte biologische Membranen aus Influenzaviren extrahiert und das Verhalten unseres vollständigen Proteins in dieser echten biologischen Membran untersucht. Aber wenn wir gleich damit angefangen hätten, hätten wir zum einen die Probenpräparation gar nicht hinbekommen, weil uns die Erfahrungswerte gefehlt hätten und zum anderen hätten wir ohne Vorwissen die Ergebnisse gar nicht sinnvoll interpretieren können.
Alexander
Simon Moon
2022-06-20, 19:00:00
Wie sieht denn so ein "Ergebnis" konkret aus? Stehen da dann so animierte Proteine und du siehst, wie sich die zur Ausgangslage veraendert haben?
Und eben, wenn man ja noch gar nicht weiss, wie das alles funktioniert, dann weiss man ja irgendwie auch nicht wirklich, was das Resultat bedeutet. Also ich stell mir das irgendwie spannend und frustrierend zugleich vor. Aber klar, irgendwo muss man anfangen - die Epigenetik ist ja quasi auch erst durch das Human Genom Projekt entstanden wenn man so will. Und jetzt wissen wir, dass wir eigentlich noch viel weniger wissen, als wir glaubten zu wissen.
large molecule
2022-06-20, 20:53:26
Ich frag mich grad, wie macht man aus all den Daten dann wieder etwas fuer uns Menschen sinnvoll Interpretierbares?
Beispiel:
https://www.pnas.org/doi/10.1073/pnas.1707304114
Ohne diese Publikation von 2017 bzw. die Strukturaufklärung des Spike-Proteins und die stabilisierende Eigenschaft des 2P-Designs darin hätte es letztes Jahr keinen erfolgreichen Corona-Impfstoff gegeben und die Welt sässe immer noch im Lockdown. Das ist wirklich DAS (völlig unbekannte) Paradebeispiel für den bahnbrechenden Erfolg der Strukturbiologie. Aber nunmal auch nicht "natürlich" und böse Gentechnik, und über Teufelszeug schreibt man nicht.
Ganz davon abgesehen sind Strukturbiologen natürlich die nutzniessenden Zecken der Molekularbiologie ;D
Simon Moon
2022-06-20, 21:42:50
Beispiel:
https://www.pnas.org/doi/10.1073/pnas.1707304114
Ohne diese Publikation von 2017 bzw. die Strukturaufklärung des Spike-Proteins und die stabilisierende Eigenschaft des 2P-Designs darin hätte es letztes Jahr keinen erfolgreichen Corona-Impfstoff gegeben und die Welt sässe immer noch im Lockdown. Das ist wirklich DAS (völlig unbekannte) Paradebeispiel für den bahnbrechenden Erfolg der Strukturbiologie. Aber nunmal auch nicht "natürlich" und böse Gentechnik, und über Teufelszeug schreibt man nicht.
Ganz davon abgesehen sind Strukturbiologen natürlich die nutzniessenden Zecken der Molekularbiologie ;D
Schon ziemlich faszinierend. Ich hab mal in der Schule gelernt, wie man berechnet in welche Schale das naechste Elektron kommt - was bei schwereren Elementen (und ich weiss gar nicht mehr, evtl. auch einfachen Molekuelen) schon ziemlich verwirrend war. Aber das hier ist einfach eine absurde Komplexitaetsstufe. Dagegen wirkt klassische Biologie irgendwie wie Alchemie, zwar systematisch, aber abgesehen von ein paar Faustregeln hatte man eigentlich auch keine wirkliche Ahnung was man da macht. Und die Modelle scheinen ja ganz schoen fundamental zu sein, wenn da schon Tunneleffekte miteinberechnet werden:
https://www.spektrum.de/news/tunneleffekt-macht-dna-instabiler/2031121
Irgendwie muss ich dabei an ein Zitat von afaik Kip Thorne oder Leonard Susskind denken, der sinngemeass meinte, in der Quantenphysik sind wir nur so weit, weil diese im Vergleich zu den anderen Wissenschaften so simpel ist.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.