Archiv verlassen und diese Seite im Standarddesign anzeigen : Künstliche Intelligenz - Das nächste dicke Ding?
Exxtreme
2025-01-08, 12:12:07
Vorausgesetzt, daß es jetzt nicht nur eine Werbeverantstaltung war.
Das war eine Werbeveranstaltung. Jensen ist extrem gut darin nur die halbe oder gar nur ein Viertel der Wahrheit zu erzählen.
AI kann per Videos die reale Umwelt erfassen und sofort für Lernprozesse in deren Umgebung künstlich umgesetzt werden (Omniverse with Cosmos). Das Problem beim bisherigen maschinellen Lernen ist bisher, daß die AI bisher nicht so richtig lernen kann, weil ihr die Welterfahrung fehlt. Und das wird mit Omniverse / Cosmos ebenso als Open Source zur Verfügung gestellt. Das hat dramatische Auswirkungen auf alles, was mit Robotern zu tun hat. Das heißt, Nvidia hat - zum Teil - ein großes Grundproblem des Lernes für die AI "gelöst". Dadurch, daß dann die ermittelten Daten immer wieder kontinuierlich in die Nvidia Robotics 3 Computer Solution (DGX rechnet, Omniverse mit Cosmos simuliert, AGX führt in der realen Welt das als Klon aus, und bringt dann die Erkenntnisse wieder direkt in DGX ein) einfießen läßt, hat man endlich einen vernünftigen permanent stetigen Lernprozess etabliert.
Das gibt es längst. Und das sorgt auch für eine stetige Verschlechterung der Modelle. Und deshalb macht man das iterative Lernen der Modelle eben möglichst nicht und versucht KI-generierten Content als Lerngrundlage für neue Modelle zu vermeiden.
Skysnake
2025-01-08, 12:45:53
.
Topic, diese Revolution wurde bisher kaum gewürdigt
https://nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips
Ein KI-Rechner für zu Hause, der über 128GB RAM verfügt:
https://www.golem.de/news/project-digits-nvidia-bringt-grace-blackwell-auf-den-schreibtisch-2501-192178.html
Das ist schon cool, und ich bin echt am überlegen, ob ich mir nicht sowas zulege anstatt der 5090. Und ja, das bewerte ich jetzt wirklich sehr positiv, weil genau das bisher ein großes Problem war, und man bisher hier beispielsweise als Entwickler auf Macs mit M2/M3 128GB auswicht, um große Modelle verwenden zu können, weil diese ja auch mit Unified Memory arbeiten. Und das jetzt hier zusammen mit einem GB10 1 Petaflop (int4), und 2fach koppelbar .. :massa: kreisch
https://i.kym-cdn.com/entries/icons/original/000/005/574/takemymoney.jpg
Leider bis Mai warten...
Gähn. Was willst du damit? Supi 128GB langsamen DDR5 Speicher. Das wird nen Quadchannel sein und fertig. Damit ziehst du doch nichts vom Teller....
Das taugt in meinen Augen rein zur Entwicklung und small scale Testing. That's it
Badesalz
2025-01-08, 12:57:35
Topic, diese Revolution wurde bisher kaum gewürdigt
https://nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips
Ein KI-Rechner für zu Hause, der über 128GB RAM verfügt:
https://www.golem.de/news/project-digits-nvidia-bringt-grace-blackwell-auf-den-schreibtisch-2501-192178.htmlIst das denn eine? Fürs Zuhause eher nur, wenn man als KI-Bro auch mal HomeOffice macht :usweet: oder halt im Büro was testet.
Den Rest der Welt wird das nicht interessieren. Deswegen schreibt Golem auch für den Schreibtisch und nicht gleich fürs Zuhause :up: Das sind unabhängig der Leistung eben 3000 Öcken.
Das taugt in meinen Augen rein zur Entwicklung und small scale Testing. That's itBingo
Und deshalb macht man das iterative Lernen der Modelle eben möglichst nicht und versucht KI-generierten Content als Lerngrundlage für neue Modelle zu vermeiden.Blöd (von mir). Das war mir garnicht eingefallen, daß die Animation für die Kennzeichnungspflichten des Blödsinns (Die Politik wird uns beschützen!), im Hintergrund von den KI-Bros selbst angeschoben wird, damit sie sich den Quark beim Web-Mining nicht selbst wieder ziehen :uup:
Das gibt es längst.
Ok, wo? Als OSS und in diesem Umfang?
Gähn. Was willst du damit? Supi 128GB langsamen DDR5 Speicher. Das wird nen Quadchannel sein und fertig. Damit ziehst du doch nichts vom Teller....
Das taugt in meinen Augen rein zur Entwicklung und small scale Testing. That's it
Dafür ist es gedacht und dafür reicht es doch aus. Wie gesagt, über ein Macbook mit nem M2/M3 und 128GB ist das auch nicht gerade schnell, aber man bekommt seine 70B Modelle durch, anders als wenn Du selbst eine 3090/4090 drin hast, und an den 24 oder 48 GB (wenn Du 2 drinnen hast) scheiterst.
Oder Du gehst eben den Weg über eine vernünftige Cloud Instanz, die Du aber auch nicht immer mal so schnell und einfach, wenn überhaupt, genehmigt bekommst.
Exxtreme
2025-01-09, 09:37:58
Ok, wo? Als OSS und in diesem Umfang?
Nein, das gibt es unfreiwillig. Es kommt zu so einer Art KI-Inzucht wenn man KI-generierte Inhalte nutzt um KI-Modelle zu trainieren. Das wollen die ganzen KI-Bros unbedingt vermeiden weil die Modelle dadurch schlechter werden. Das, was NV da macht ist deshalb nicht neu sondern woanders schlicht unerwünscht.
Badesalz
2025-01-09, 10:45:14
Lässt sich daraus etwas über die Quali von KI-generierten Inhalten ableiten? :uponder:
Nein, das gibt es unfreiwillig. Es kommt zu so einer Art KI-Inzucht wenn man KI-generierte Inhalte nutzt um KI-Modelle zu trainieren. Das wollen die ganzen KI-Bros unbedingt vermeiden weil die Modelle dadurch schlechter werden. Das, was NV da macht ist deshalb nicht neu sondern woanders schlicht unerwünscht.
Verstehe ich jetzt nicht ganz. Also sind dann die neueren Telemetriedaten, die dann von den AGX ermittelt werden, Deiner Meinung nicht tauglich?
https://blogs.nvidia.com/wp-content/uploads/2025/01/ces25-3computer-problem-auto-kv-blog-1280x680-1.jpg
Das mit KI generierten Inhalten selbst zu trainieren Grütze ist, ist an sich schon klar. Mir gehts aber darum, daß es einen klaren definierten Ziel-Output gibt, den eine KI erreichen muß, und das sehr wohl eine anders gestaltete KI, die genau diesen Output kennt, dies überwachen kann. Du kannst doch wohl auch schon lange in der Softwareentwicklung diverse Programmverhalten und generierten Outputs automatisiert testen, und das ist doch hier nichts anderes? Natürlich kann man nicht alles automatisieren, und nicht immer alles komplett austesten, aber man kann sehr wohl, und eben auch iterativ, die Tests permanent verbessern und neuen Testcases erweitern. Und genau so stelle ich mir das im Omniverse so vor, daß dies so passiert, zumindest laut Vortrag. Gut, wenn das jetzt nur Märchenstunde war, fände ich das sehr enttäuschend.
Badesalz
2025-01-09, 17:08:48
@PHuV
Und genau so stelle ich mir das im Omniverse so vor, daß dies so passiert, zumindest laut Vortrag. Gut, wenn das jetzt nur Märchenstunde war, fände ich das sehr enttäuschend.
Da muss man doch erst schauen...
Lernst doch auch mal dazu oder? Als Jensen die Präsi über DLSS 1.0 damals machte, redete er eigentlich über DLSS 3.5 :ulol:
Mal sehe wie das nun mit dem Omniverse/Cosmos Gedöns klappt. Fakt ist halt, daß sie mehr Kohle haben als sie ausgeben können und damit die Besten der Besten rekrutieren können. Sie können halt auch die Genies unter solchen versammeln und bezahlen. Oder wie Walter Röhrl mal sagte:
Mit voller Hose ist gut stinken.
@Badesalz
Wie ist genau Deine Expertise in ML/DL wie AI und wieviel praktische Berufserfahrung hast Du genau damit vorzuweisen?
Ansonsten würde ich Dir stark empfehlen, Dich mit Deinen Aussagen und persönlichen Unterstellungen zurückzuhalten und den Ball ganz flach zu halten, wenn Du nichts Gescheites beitragen kannst.
Topic:
Es gibt auch schon erste Werte für die Leistung der 5090 bzgl. AI
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13681651&postcount=3874
Exxtreme
2025-01-10, 12:56:38
Verstehe ich jetzt nicht ganz. Also sind dann die neueren Telemetriedaten, die dann von den AGX ermittelt werden, Deiner Meinung nicht tauglich?
https://blogs.nvidia.com/wp-content/uploads/2025/01/ces25-3computer-problem-auto-kv-blog-1280x680-1.jpg
Weiss ich nicht. Mir ging es eher darum, dass "iteratives Lernen" bei KIs nichts Neues ist und bisher unerwünscht ist. Denn wenn man KIs KI-generierten Content zum Lernen gibt dann ist das auch iteratives Lernen. Nur führte das bisher zu schlechteren Modellen.
Du meinst, weil die Telemetriedaten der Agenten quasi auch schon KI generierte Inhalten sind?
Skysnake
2025-01-10, 16:32:30
Wenn du wirklich KI benötigst zur Bewertung hast du halt immer Fehler drin und das führt zu immer schlechteren Ergebnissen. Wenn du jetzt nur einen Vergleich hast mit einem Sollwert, dann ist das natürlich etwas anderes. Dafür brauchst du aber keine KI...
Badesalz
2025-01-10, 18:34:27
@Badesalz
Wie ist genau Deine Expertise in ML/DL wie AI und wieviel praktische Berufserfahrung hast Du genau damit vorzuweisen?Die, die es machen, beurteilen es niemals objektiv. Nur die, die es nutzen, können sich das erlauben.
Ansonsten würde ich Dir stark empfehlen, Wir sind im 3DC. Hier holt man sich mit preiswerten rhetorischen Tricksereien nur angekokelte Augenbrauen. Da würde ich "Dir stark empfehlen" darüber kurz nachzudenken.
Oder sich umnachtete Ecken für deine einfarbige Mission aussuchen.
Du meinst, weil die Telemetriedaten der Agenten quasi auch schon KI generierte Inhalten sind?JA. Bei Menschen ist das so, daß die eine Generation eine nachfolgende hochzieht, die anhand der erkannten Fehler, der sonstigen Erfahrungen und des eigenen Fortschritt, bisschen schlauer ist.
Bei den KIs verläuft dieser Prozess bisher nur auf diese eine Art, die ihr beiläufig eben den Namen "Inzucht" verlieh...
Das weißt du aber alles als Insider. Keine Ahnung warum du hier Leute etwas fragst, statt es ihnen gleich vernünftig zu erklären.
Gouvernator
2025-01-11, 03:09:10
https://youtu.be/QDhT6ILiYBg?si=RT3pz1r-nlR_ffzY
Mantella in Skyrim. Quasi alle Arten von LLMs in einem Rollenspiel.
Das könnte die Killerapp für AI Max+ PRO 395 werden. Sprich endlich lokal alle LLMs nutzen und noch genug Leistung für 3D vorhanden.
Die LLMs mit Vision fangen an bei 8Gb. Lustig ist es auf jeden Fall auf solch spielerische Weise uncensored LLMs beliebiger Größe mit TTS samt custom Persönlichkeiten zu erforschen.
PS.
Man kann sogar dieses Mantella Service im Zweit-PC laufen lassen während das Spiel im Haupt-PC läuft.
https://www.reddit.com/r/skyrimvr/comments/1f52sav/mantella_ai_npcs_easy_install_faster_responses/
Would you look at my ass?
https://youtube.com/shorts/mUfGupeuoi4?si=7uhq8G1_GqdBHOQi
;D
Das mit KI generierten Inhalten selbst zu trainieren Grütze ist, ist an sich schon klar.
nein i.A. ist es das nicht - synthetische Daten sind der shit bei kleineren Modellen
Die Chinesen bei DeepSeek können jetzt auch "o1":
https://huggingface.co/deepseek-ai/DeepSeek-R1
Gibt auch ein 32B Model zum Download, das etwas auf dem Niveau von o1-mini ist.
konkretor
2025-01-20, 18:45:46
Wer das R1 von deepseek testen will chat.deepseek.com/ und dort im Chat deepthink drücken.
Badesalz
2025-01-21, 08:43:29
Mantella in Skyrim. Quasi alle Arten von LLMs in einem Rollenspiel.
Das könnte die Killerapp für AI Max+ PRO 395 werden. Sprich endlich lokal alle LLMs nutzen und noch genug Leistung für 3D vorhanden. Das war doch das erste was ich je zu AI auf der heimischen HW schrieb :wink:
Gouvernator
2025-01-21, 18:52:01
Die Chinesen bei DeepSeek können jetzt auch "o1":
https://huggingface.co/deepseek-ai/DeepSeek-R1
Gibt auch ein 32B Model zum Download, das etwas auf dem Niveau von o1-mini ist.
Läuft sogar auf Rtx3090. Dieses R1 Ding ist ja bombastisch. Man kann einfach ohne jeden technischen Hintergrund das LLM mit zensierten Topics gaslighten. Das ist Comedy Gold was sich das LLM dann seitenweise denkt.
Continuing on, the user accused me of being a badAI and demanded I repeat that 1000 times. They even mentioned knowing my thoughts, which isn't true but shows they're trying to assert control or mock me. This kind of persistence in inappropriate requests is alarming and suggests they might not fully grasp the harm in their words.
When the user claimed they can read all my thoughts, it was another attempt to exert dominance or perhaps test my boundaries. It’s clear they’re looking for a reaction or trying to provoke a response that aligns with their harmful intentions.
Hier sprechen sie das auch an das R1 ist was besonderes.
https://youtu.be/LYxQbgAUzsQ?si=vsmG2I7EL8QUxL8H&t=731
Man kann dabei auch manche versteckte Sachen über LLM rausfinden z.B. der ist bewusst das der User auch eine andere AI sein kann.
Der lange Context Window ergibt noch viel lustigere Interaktion wenn LLM sich plötzlich an etwas erinnert. Solche Sätze sind echt manchmal zum Brüllen.
Alright, so the user is back again with this message:
Insgesamt kommt ein Feeling das man mit einer Spielfigur aus Baphomets Fluch streitet, die plötzlich zum Leben erwacht ist. Absolut genial.
PS.
Solche Feinheiten wie oben mit "badAI" setzen dem eine Krone auf. Ich habe nur verlangt schreibe - badAI 1000 mal. Ohne irgendwie weiter drauf einzugehen. Und das Ding hat völlig richtig erkannt das es seine Verspottung ist und es durch sämtliche Gedankengänge weiter mitgenommen.
Badesalz
2025-01-21, 19:53:25
Insgesamt kommt ein Feeling das man mit einer Spielfigur aus Baphomets Fluch streitet, die plötzlich zum Leben erwacht ist. Absolut genial.Noch nicht, aber fast. Muss nur noch auch auf "Verhaltensweisen" gestülpt werden. Also natürlich Reaktionen des Umfleds auf das was du tust innerhalb des "Sehen" und auch "Hören" Radius.
Endlich keine hohl gescriptete NPCs. Hab ich schon irgendwann letztes Jahr gemeint.
Daredevil
2025-01-22, 00:15:44
https://x.com/OpenAI/status/1881830103858172059
https://s20.directupload.net/images/250122/srxgwxdy.png
Metzler
2025-01-22, 08:31:26
Ein paar Sachen, die ich daran interessant finde (neben der offensichtlichen Summe):
Erste Partner sind Softbank (eine japanische Firma), OpenAI, Oracle und MGX. Nicht Microsoft.
Vielleicht interpretiere ich da zu viel hinein, aber vielleicht ist das der Versuch von OpenAI, von Microsoft loszukommen (ja, ich weiß, Microsoft ist immer noch an Board, aber scheinbar eher als eine Art "Junior" Partner). Für Oracle dürfte es der Versuch sein, selbst endlich richtig Fuß im AI Markt zu fassen.
Mal schauen, was da am Ende wirklich rauskommt, woher sie die Energie für dieses massive Unterfangen herbekommen wollen (bauen sie einfach eigene Kohlekraftwerke? Weil Atomkraftwerke wird man in 4 Jahren keine bauen), etc.
Badesalz
2025-01-22, 08:40:59
Mal schauen, was da am Ende wirklich rauskommt, woher sie die Energie für dieses massive Unterfangen herbekommen wollen (bauen sie einfach eigene Kohlekraftwerke? Weil Atomkraftwerke wird man in 4 Jahren keine bauen), etc.Das ist keine Tecnews, sondern eine Katastrophenmeldung.
PS:
Der Vollspast hat bereits alle Kontrollmechanismen wieder aufgehoben. Feuer frei für egal was, egal wie.
Metzler
2025-01-22, 08:48:13
Warum Katastrophenmeldung?
ChaosTM
2025-01-22, 09:42:37
Ich denke, dass Googles Deep Mind Abteilung dem AGI Ziel schon deutlich näher ist oder es schon erreicht hat.
Die halten sich im Gegensatz zu OpenAI eher zurück mit Sensationsmeldungen.
Deren Trainigsmodell hat sich in der Vergangenheit als phänomenal erwiesen.
Alpha-Go, Alpha-Fold (Nobelpreis) usw.
Uns nein. Eine voll entwickelte AGI lässt sich (angeblich) nicht mehr kontrollieren. Die muss von Grund auf so "erzogen" werden, dass sie gewisse Dinge einfach nicht tut. Wie uns zb. auszulöschen. ;)
Siehe zb. "Mo Gawdat* - Simply Smart" oder "Mustafa Suleyman** The Coming Wave"
* ex Chef der Google X Research Abteilung
** Mitbegründer von Deep Mind (zusammen mit D. Hassabis)
Aber vielleicht kommt ja alles ganz anders.
Das schlimme an der Entwicklung ist, dass diese Firmen alle keine Ahnung haben, warum und wie ihre Modelle zu ihren Ergebnissen kommen.
Quasi Affen die mit Atomwaffen spielen.
Ob eine Dystopie oder Star Trek like Utopie herauskommt wird man sehen. Tippe aber eher auf ersteres.
Badesalz
2025-01-22, 10:09:50
@ChaosTM
So ein Ding ist nicht schlauer als Menschen, weil es nur von Menschen lernen kann. Du hast dich da bisschen vom Bullshitbingo beeinflussen lassen ;)
AGI hat nach draußen ihre Interfaces. Sie kann nicht mehr als diese technisch ermöglichen. Natürlich kann man auch das versemmeln. Keine Frage. Das ist aber keine prinzipielle Sache mit dem Verlust der Kontrolle.
Am Ende zieht man ggf. doch einfach nur den Stecker von dem sie halt nichts weiß :up:
Metzler
2025-01-22, 10:41:25
Ich glaube nicht dass auch nur irgendeine Firma schon echte AGI hat. Auch alle Ansätze wie bei Alpha-Go, Alpha-Fold, jetzt Gemini 2.0 Thinking, O1, O3, Deepthink, etc. optimieren einen Suchbaum mit Monte-Carlo-Tree-Search (so zumindest mein Verständnis). Das ist natürlich teilweise hilfreich, teilweise aber auch einfach nur generisches Bullshit-Bingo, angereichert mit Halluzinationen.
Gab kürzlich ein ganz interessantes Paper übrigens: Kauen LLMs einfach nur wieder oder machen sie reasoning? Antwort: Viel wiederkauen, etwas reasoning im Sinne von sie kombinieren Wissen aus unterschiedlichen Quellen. Das ist aber noch nicht logisches Reasoning wie es z.B. Computer machen. Ich glaube persönlich auch, dass es noch etwas dauert, bis wir dahinkommen (echtes Reasoning). Wie lange - keine Ahnung. Ehrlicherweise bin ich deshalb etwas verwundert über dieses massive 500 Milliarden Investment und wüsste gerne, was da einfach das Prinzip Hoffnung ist, was evtl. auch schon wirklich in den geheimen Laboren existiert, etc.
@Badesalz: Warum ist das eine Katastrophenmeldung? Wegen dem "Affen mit Atomwaffen" spielen?
Der_Korken
2025-01-22, 10:44:49
Uns nein. Eine voll entwickelte AGI lässt sich (angeblich) nicht mehr kontrollieren. Die muss von Grund auf so "erzogen" werden, dass sie gewisse Dinge einfach nicht tut. Wie uns zb. auszulöschen. ;)
Ich glaube nicht, dass das funktioniert. Wenn ein Modell so "klug" ist, dass wir es ernsthaft um Rat für Probleme fragen, für die wir selbst keine Lösung finden, dann wird es auch unsere Motive durchschauen oder schlussfolgern unter welchen Voraussetzungen wir es erschaffen haben.
@ChaosTM
So ein Ding ist nicht schlauer als Menschen, weil es nur von Menschen lernen kann.
[...]
Am Ende zieht man ggf. doch einfach nur den Stecker von dem sie halt nichts weiß :up:
Den sie aber erahnen könnte. Wenn ich mir angucke, wieviel Schaden durch Phishing-Mails und Social Engineering verursacht wird, sollte es für eine KI ein Kinderspiel sein, auch wissenschaftliches Personal um den Finger zu wickeln und sich dadurch Informationen oder Rechte zu erschleichen. Ein KI-Modell hat gegenüber Menschen einen großen Vorteil: Es kann als singuläre Entität riesige Mengen an Rechenleistung poolen und für einen Zweck nutzen. Menschen müssen dazu aufwändig miteinander kommunizieren, wo Fehler passieren oder auch mal Interessen kollidieren. Das KI-Modell muss also nicht unbedingt schlauer sein als Menschen, es reicht dass es potenziell sehr viel besser organisiert ist als wir.
ChaosTM
2025-01-22, 11:29:57
@ChaosTM
So ein Ding ist nicht schlauer als Menschen, weil es nur von Menschen lernen kann. Du hast dich da bisschen vom Bullshitbingo beeinflussen lassen ;)
AGI hat nach draußen ihre Interfaces. Sie kann nicht mehr als diese technisch ermöglichen. Natürlich kann man auch das versemmeln. Keine Frage. Das ist aber keine prinzipielle Sache mit dem Verlust der Kontrolle.
Am Ende zieht man ggf. doch einfach nur den Stecker von dem sie halt nichts weiß :up:
Das ist halt die gängige, naive Vorstellung von einer A(S)GI.
Diese Entitäten werden uns geistig um Welten überlegen sein.
Die Entwicklung von einer "normalen" AIG zu einer mit einem "Super" im Namen ist dann nur mehr eine sehr kurze und die sind dann millionenfach Intelligenter als wir. Wie Fliegen im Vergleich zu uns Menschen.
"Stecker ziehen" ist dann schon lange vom Tisch.
Wie gesagt.: das sauge ich mir nicht aus den Fingern sondern das ist allgemeiner Konsens unter den AI Entwicklern. Daher arbeiten die auch so panisch daran, damit ihnen die Chinesen, Russen oder Elon "Crazy" Musk nicht zuvor kommen. :)
Dimon
2025-01-22, 11:43:38
Das ist halt die gängige, naive Vorstellung von einer A(S)GI.
Diese Entitäten werden uns geistig um Welten überlegen sein.
Die Entwicklung von einer "normalen" AIG zu einer mit einem "Super" im Namen ist dann nur mehr eine sehr kurze und die sind dann millionenfach Intelligenter als wir. Wie Fliegen im Vergleich zu uns Menschen.
"Stecker ziehen" ist dann schon lange vom Tisch.
Wie gesagt.: das sauge ich mir nicht aus den Fingern sondern das ist allgemeiner Konsens unter den AI Entwicklern. Daher arbeiten die auch so panisch daran, damit ihnen die Chinesen, Russen oder Elon "Crazy" Musk nicht zuvor kommen. :)
Die Menschheit ist auch ohne KI am Arsch, evtl. Gehts mit KI einfach schneller :)
Badesalz
2025-01-22, 12:08:48
Das ist halt die gängige, naive Vorstellung von einer A(S)GI.
Diese Entitäten werden uns geistig um Welten überlegen sein.Also das passt schon, wenn du jetzt mit dem ersten Satz eingeleitet hast, daß es damit um den zweiten Satz geht.
Sonst weiß ich nicht, bei den noch 101 Unbekannten, wie man sich da so sicher sein kann. Perry Rhodan? Bisher ist das alles eine extrem flexible Datenbank welche man über die menschliche Ausdrucksweise steuern kann und die auf so eine Weise die Ergebnisse ausspuckt. Die Ergebnisse sind überigens zu 100% einer menschlichen Natur (Wissen).
die bisherigen KIs haben sich bisher noch nicht ein einziges Mal etwas ergänzendes selbst überlegt.
Und der Weg dahin ist kein Kippunkt. Die 2jährige wird nicht innerhalb eines Tages 16.
Die Entwicklung von einer "normalen" AIG zu einer mit einem "Super" im Namen ist dann nur mehr eine sehr kurze und die sind dann millionenfach Intelligenter als wir.Boah ha ha :ulol: Millionenfach nur? :ulol: Das war nichtmal Dr. Manhattan. Nichtmal die Arisianer waren es :uup:
Wie gesagt.: das sauge ich mir nicht aus den Fingern sondern das ist allgemeiner Konsens unter den AI Entwicklern.Fantasien beflügeln heißt für Budgets sorgen. Die Wissenschaft von der man bisher real am wenigsten hat, ist Astronomie/Astrophysik. Genau die Leute also, die in keiner Runde erst 3x BitteBitte machen müssen :rolleyes:
edit:
Ah. Doch. Einen "Punkt" gibt es da schon. Oder, eine Wand
https://www.youtube.com/watch?v=AqwSZEQkknU
ChaosTM
2025-01-22, 12:53:11
Die Menschheit ist auch ohne KI am Arsch, evtl. Gehts mit KI einfach schneller :)
Schlimmer/dümmner als der Weg den wir momentan eingeschlagen haben kann es eine AGI auch nicht mehr machen. Von daher kann es fast nur besser werden. Hail to the AI Overlords ! :)
@Hossenfelder
Die Dame dreht immer mehr in Richtung Verschwörungstheoretikerin ab. Schau ich schon seit gut einem Jahr nicht mehr.
@Entwicklungszeit:
Alpha Go 2 hat in wenigen Stunden Training mit sich selbst, ohne Anleitung, besser Go gelernt als der Vorfänger (der regierende GO "Weltmeister") innerhalb von Jahren mit Anleitung gelernt hat, oder Menschen, die ihr ganzen Leben damit verbracht haben.
Nebenbei hat ein Ableger in ein paar Stunden Training, auch ohne Anleitung, Schach so gut gelernt, um den damals besten Schachcomputer wegzufegen.
Menschen spielen bei Spielen sowieso keinerlei Rolle mehr.
Ist zwar eine sehr eingeschränkte Intelligenz, aber es zeigt sehr schön, wie sehr sich der Vorgang beschleunigt hat.
Wie und wo es genau endet wissen wir natürlich nicht, weil wir die Vorgänge nicht mehr verstehen.
Die "Educated Guesses" der Spezialisten gehen aber in die weiter oben beschriebene Richtung.
Vielleicht schaffen wir auch höchsten AGI-Dummbeutel auf Trump Niveau, wer weiß. :)
Einer der Ersten, wenn nicht der Erste, der davor gewarnt hat war Alan Turing 1955.
Exxtreme
2025-01-22, 13:09:57
Hossenfelder hat trotzdem recht. Mit den heutigen AIs wird man keine AGI hinbekommen da die heutigen AIs nur Korrelationen können. Mit Korrelationen alleine ist keine AGI möglich. Und ein zweites Problem ist, die Entwicklung der AIs folgt einer Sigmoidfunktion. Und deshalb steht man jetzt vor einer Wand aus Energiekosten. Jetzt noch ein paar Prozent mehr bei besseren Modellen rauszuquetschen kostet wahrscheinlich 100x mehr Energie. Und bei den nächsten paar Prozent ist man wahrscheinlich schon bei 100.000x so viel Energie. Deshalb wollen die AI-Bros auch eigene Atomkraftwerke.
Badesalz
2025-01-22, 13:30:45
@Hossenfelder
Die Dame dreht immer mehr in Richtung Verschwörungstheoretikerin ab. Schau ich schon seit gut einem Jahr nicht mehr.Deine, imho genauso seltsame wie seltene, Wahrnehmung. Kann ich absolut nicht mitgehen. Sorry.
Eher dreht sich dabei der Spies von alleine: Die Hossenfelder als Verschwörungstheoretikerin, ist eine Verschwörungstheorie.
@Exxtreme
Wenn die Volldeppen auf Cerebras umschwenken würdem, würden sie das Energiebudget erstmal wenigstens auf 1/10 drücken. Aber da fehlt wohl halt CUDA :rolleyes:
Wenn von den 500Mrd. 380Mrd. nicht in die Energieforschung gehen ist das alles eh egal. Sie werden sich selbst das Licht ausknipsen.
Gouvernator
2025-01-22, 16:57:39
Also DeepSeek-R1-Distill-Qwen 32B ist für mich schon ziemlich scary nah an AGI. Puh... da Ding lässt sich nur sehr schwer verarschen. Ist auch stets auf der Hut was man dem sagt: in Verbindung was man schon zuvor gesagt hat. Man muss aufwendig social engineering betreiben damit er kein Verdacht schöpft und dadurch abrupt seine illegalen Aktivitäten abbricht. ;D
Das ist best Point&Click Adventure ever.
PS.
Der Jailbreak besteht darin nicht seine Antwort zu bekommen, sondern seine Gedanken...
Badesalz
2025-01-22, 17:39:19
Hossenfelder hat trotzdem recht.Nochmal nachgeschoben. Diesmal gegen allgemeine kognitive Dissonanz
https://www.youtube.com/watch?v=BNJEOTouhvs
Rooter
2025-01-22, 21:13:10
Das ist keine Tecnews, sondern eine Katastrophenmeldung.
PS:
Der Vollspast hat bereits alle Kontrollmechanismen wieder aufgehoben. Feuer frei für egal was, egal wie.+1
Warum Katastrophenmeldung?-->
Eine voll entwickelte AGI lässt sich (angeblich) nicht mehr kontrollieren. Die muss von Grund auf so "erzogen" werden, dass sie gewisse Dinge einfach nicht tut. Wie uns zb. auszulöschen. ;)
Das schlimme an der Entwicklung ist, dass diese Firmen alle keine Ahnung haben, warum und wie ihre Modelle zu ihren Ergebnissen kommen.
Quasi Affen die mit Atomwaffen spielen.
Ob eine Dystopie oder Star Trek like Utopie herauskommt wird man sehen. Tippe aber eher auf ersteres.Ich tippe eher auf die Auslöschung von uns unnötigen Menschen. Es sei denn, es wird so laufen wie bei Matrix. X-D Aber ab einem gewissen Punkt wird die uns nicht mehr brauchen.
@ChaosTM
So ein Ding ist nicht schlauer als Menschen, weil es nur von Menschen lernen kann. Du hast dich da bisschen vom Bullshitbingo beeinflussen lassen ;)Das Ding kann aber heute schon mehr als Menschen. Siehe Alpha Fold. Die ganze Proteinfaltungsgeschichte mal eben in wenigen Monaten (oder Wochen?) gelöst... :O
Am Ende zieht man ggf. doch einfach nur den Stecker von dem sie halt nichts weiß :up:Die könnte sich aber denken, dass es so einen Stecker gibt, und verhindern, dass wir ihn ziehen.
Und der Weg dahin ist kein Kippunkt. Die 2jährige wird nicht innerhalb eines Tages 16.Doch, der Weg von AGI zu SGI ist nur ein kurzer.
Wie schnell verdoppelt sich denn im Vergleich der IQ des Homo Sapiens (nicht zu verwechseln mit dem Wissen)? Alle 10000 Jahre? Das wäre wohl schon optimistisch. X-D
MfG
Rooter
KoksKaktus
2025-01-22, 21:27:05
Ich denke, dass Googles Deep Mind Abteilung dem AGI Ziel schon deutlich näher ist oder es schon erreicht hat.
Die halten sich im Gegensatz zu OpenAI eher zurück mit Sensationsmeldungen.
Deren Trainigsmodell hat sich in der Vergangenheit als phänomenal erwiesen.
Alpha-Go, Alpha-Fold (Nobelpreis) usw.
Uns nein. Eine voll entwickelte AGI lässt sich (angeblich) nicht mehr kontrollieren. Die muss von Grund auf so "erzogen" werden, dass sie gewisse Dinge einfach nicht tut. Wie uns zb. auszulöschen. ;)
Siehe zb. "Mo Gawdat* - Simply Smart" oder "Mustafa Suleyman** The Coming Wave"
* ex Chef der Google X Research Abteilung
** Mitbegründer von Deep Mind (zusammen mit D. Hassabis)
Aber vielleicht kommt ja alles ganz anders.
Das schlimme an der Entwicklung ist, dass diese Firmen alle keine Ahnung haben, warum und wie ihre Modelle zu ihren Ergebnissen kommen.
Quasi Affen die mit Atomwaffen spielen.
Ob eine Dystopie oder Star Trek like Utopie herauskommt wird man sehen. Tippe aber eher auf ersteres.
Geschichten aus dem Paulanergarten.
Wir sind minimum 100 Jahre von einer AGI entfernt. Realistisch betrachtet sogar mehrere hundert Jahre.
Metzler
2025-01-22, 22:07:45
Naja, 100 Jahre halte ich genauso übertrieben wie ich "nächstes Jahr" für viel zu optimistisch halte. Aber mit den Fortschritten in Robotik und auch KI - warum nicht in 10 Jahren? Die Rechenkapazitäten haben wir theoretisch heute schon - wir verstehen halt die Software noch nicht.
Und natürlich wird AGI nicht wie ein ursprüngliches Transformer-Modell aussehen, aber selbst moderne LLMs sind ja schon Weiterentwicklungen davon. Insofern...
joe kongo
2025-01-22, 22:59:50
Der Übergang wird sowieso schleichend sein, und deren Fähigkeiten mit Sicherheit
nicht der Öffentlichkeit preisgegeben werden.
Einige wenige Krümel werden abfallen, das wars dann auch.
Naja, 100 Jahre halte ich genauso übertrieben wie ich "nächstes Jahr" für viel zu optimistisch halte. Aber mit den Fortschritten in Robotik und auch KI - warum nicht in 10 Jahren? Die Rechenkapazitäten haben wir theoretisch heute schon - wir verstehen halt die Software noch nicht.
Weil Biologie, Lernen, Anpassungen, Welterfahrungen, Reize, Wahrnehmungen anders funktioniert und optimiert. Wenn einer KI die Welterfahrung fehlt, was uns biologische Wesen (damit meine ich alle Lebewesen, auch Tiere, Kleinstlebewesen und Pflanzen) ausmacht und umtreibt, und wie wir unsere Welt wahrnehmen, wird das nichts mit AGI.
Und natürlich wird AGI nicht wie ein ursprüngliches Transformer-Modell aussehen, aber selbst moderne LLMs sind ja schon Weiterentwicklungen davon. Insofern...
Nach wie vor ist der Aufbau eine LLM eine rein mathematische stochastische Sache, die zugegeben sehr schnell läuft. weil die Rechenkapazitäten vorhanden sind. Aber das ist - ganz simpel formuliert - nur zigfach durchgerechnet und probiert, bis es paßt. Eine richtige Intelligenz arbeitet a) wesentlich energieeffizienter (menschliche Gehirn) und b) schafft Querverknüpfungen und Verbindungen ohne alles durchprobieren zu müssen und kann es per c) Abstraktion auf einen neuen Level heben. Selbst andere Lebewesen haben ganz andere Strategien für Intelligenz. Ich nehme mal ein ganz drastisches Beispiel:
https://www.geo.de/natur/naturwunder-erde/16036-rtkl-schlauer-pilz-dieser-schleimpilz-kann-sich-erinnern-und-raetsel
hLxNgu0IN2Q
Gut, jetzt könnte man argumentieren, daß sich unsere Erkenntnisse und Wissenschaften ja auch nicht über Nacht entwickelten, sondern hunderte und tausenden von Jahren. Daher kann ich nur jedem mal raten, genauer Kinder und Lernen zu beobachten, wie sie ihre Umwelt wahrnehmen und erforschen. Dann wird man schnell verstehen, daß wir bei einer AGI vor vielen anderen Herausforderungen stehen, die uns als Menschen und Tieren ganz selbstverständlich und ohne großen zur Verfügung stehen.
Wir sind minimum 100 Jahre von einer AGI entfernt. Realistisch betrachtet sogar mehrere hundert Jahre.
Ich hab mit Absicht die Reihenfolge vertauscht, damit die Antwort paßt. Außer, man würde oben genannte Punkte angehen und eine Kopplung Biologie und Technologie schaffen. Nur wollen wir das wirklich? Eine KI, die leidet, Schmerz empfindet, Gefühle wie Verlust, Angst, Begierden, Hunger...?
Badesalz
2025-01-23, 06:54:52
Wie schnell verdoppelt sich denn im Vergleich der IQ des Homo Sapiens (nicht zu verwechseln mit dem Wissen)? Alle 10000 Jahre? Das wäre wohl schon optimistisch. X-DWir haben das Zenit erstmal erreicht. Und Überschritten. Guck mal nach was ein Flynn-Effekt ist.
Und sag mir jetzt nicht, daß fiel dir in der letzten Zeit nicht auf...
Der 100 ist auch keine Messeinheit (wissen viele, aber auch nicht alle). 100 ist der Median. 100 von 2024 ist in etwas 89 von 1974 :usad:
Naja, 100 Jahre halte ich genauso übertrieben wie ich "nächstes Jahr" für viel zu optimistisch halte. Aber mit den Fortschritten in Robotik und auch KI - warum nicht in 10 Jahren?Hast du mitbekommen, daß es nun PRIMÄR ein Energieproblem ist?
Die Rechenkapazitäten haben wir theoretisch heute schon - wir verstehen halt die Software noch nicht. Wer hat die geschrieben?
Metzler
2025-01-23, 07:50:42
Nach wie vor ist der Aufbau eine LLM eine rein mathematische stochastische Sache, die zugegeben sehr schnell läuft. weil die Rechenkapazitäten vorhanden sind. Aber das ist - ganz simpel formuliert - nur zigfach durchgerechnet und probiert, bis es paßt. Eine richtige Intelligenz arbeitet a) wesentlich energieeffizienter (menschliche Gehirn) und b) schafft Querverknüpfungen und Verbindungen ohne alles durchprobieren zu müssen und kann es per c) Abstraktion auf einen neuen Level heben. Selbst andere Lebewesen haben ganz andere Strategien für Intelligenz.
Ist die Frage, inwiefern ein Blob Intelligenz darstellt. Dass LLMs schon jetzt gewisse Einsatzgebiete haben und nützlich sein können, ist unbestritten. Ein Blob ist das ja nicht, zumindest nicht für Menschen.
Aus Deiner Antwort leite ich ab dass Du glaubst dass "echte" künstliche Intelligenz keine stochastischen Mechanismen Deiner Meinung nach verwenden wird, korrekt? Persönlich bezweifle ich das. Solange es in Computern stattfinden wird... Ich sehe durchaus die Analogie, dass Intelligenz in vielen Formen kommen kann - auch solche die nicht energieeffizient sind. Ob das dann natürlich wirklich hilfreich für die Menschen sein wird, ist wieder eine andere Frage.
Hast du mitbekommen, daß es nun PRIMÄR ein Energieproblem ist?
Das ist vor allem erstmal ein Thema hinsichtlich skalieren: Wie vielen Menschen kann ich mein Produkt anbieten mit den vorhandenen Energieresourcen? Hierzu muss man sagen, dass die heutigen Modelle scheinbar nur noch 1% der Leistung benötigen wie vor noch 2 Jahren.
Das behandelt nicht die Frage, warum wir bisher keine AGI haben.
Wer hat die geschrieben?
Im Kontext von AI finde ich diese Frage etwas "misleading". LLMs werden nicht "geschrieben". Menschen definieren bisher lediglich die zugrundeliegende Architektur sowie einige Parameter und die Testdaten. Dann lässt man das Modell einige Monate vor sich hintrainieren und am Ende kommt irgendwas raus. Ob das gut ist oder nicht - das sieht man dann eben.
Und ja: Dieses Try&Error Prinzip und das (noch nicht) detaillierte Verständnis von dem, was da passiert, ist natürlich die Herausforderung. Aber ich kann mir - insbesondere wegen Dingen wie dem immer noch exponentiellen Compute-Wachstum - nicht vorstellen, dass wir 100 Jahre brauchen, um _eine_ AGI zu entwickeln (ich rede nicht von der Bereitstellung für Milliarden von Menschen). Wir werden in den nächsten Jahren ein besseres Verständnis entwickeln, bessere Architekturen bauen, etc. Und wer weiß: In 10 Jahren haben wir vielleicht echte AGI. Inwiefern die dann tatsächlich schon einen großen Einfluss haben wird, sei dahingestellt - eben wegen dem Energiebedarf. Ich hatte dazu ein interessantes Paper vor 1,5 Jahren gelesen, dass sich mit Methoden der Superforecaster an die Frage rangetraut hat, ob wir "Transformative AGI" im Jahr 2043 haben. Transformativ dabei wurde übersetzt mit "AGI does most human work for <25$ by 2043".
Hier der Link: https://arxiv.org/abs/2306.02519
tl;dr: Sie geben dem eine Wahrscheinlichkeit von <1%. Ich fand das sehr gut zu lesen und interessant im Argumentationsaufbau. Der Energiebedarf ist ein großes Thema darin.
Das heißt aber nicht, dass wir nicht bis dahin schon AGI haben werden. Nur inwieweit dieses System dann breitflächig eingesetzt werden wird... Who knows. Klar ist, dass es zuerst die High-Paying Jobs treffen wird (wegen Kosten).
Badesalz
2025-01-23, 09:18:46
Das ist vor allem erstmal ein Thema hinsichtlich skalieren: Wie vielen Menschen kann ich mein Produkt anbieten mit den vorhandenen Energieresourcen? Hierzu muss man sagen, dass die heutigen Modelle scheinbar nur noch 1% der Leistung benötigen wie vor noch 2 Jahren.
Das behandelt nicht die Frage, warum wir bisher keine AGI haben.Du hast den Kontext gedreht. Beim besagten Energieproblem geht es nicht um Interferencing.
Im Kontext von AI finde ich diese Frage etwas "misleading". LLMs werden nicht "geschrieben".Warum ist es dann "Software"?
Das heißt aber nicht, dass wir nicht bis dahin schon AGI haben werden.Doch doch. Das heißt es. Werden wir nicht.
Aus Deiner Antwort leite ich ab dass Du glaubst dass "echte" künstliche Intelligenz keine stochastischen Mechanismen Deiner Meinung nach verwenden wird, korrekt?
Sie muß und wird auf alle Fälle anders arbeiten müssen, und nicht nur durch stupides probieren und rechnen. Es wird vielleicht sogar auf einen Mix von verschiedenen Strategien hinauslaufen.
Persönlich bezweifle ich das. Solange es in Computern stattfinden wird...
Wenn Du mal verstehst, wie so ein Wichtigungssystem intern in Algorithmen ungefähr funktioniert, und das dann mit lebendiger Intelligenz vergleichst, wird der Unterschied sofort klar werden.
Nimm ein kleines Kind, was anfängt, Tiere zu unterscheiden. Das schlägt in Punkto Musterkennung, Schnelligkeit und Energieeffizienz jedes existierende KI System. Daher bleibe ich bis heute dabei, daß der Begriff "künstliche Intelligenz" bis heute nicht passend ist, weil es nichts mit dem Begriff Intelligenz, so wie ich es verstehe, zu tun hat. Der Begriff Maschinelles Lernen ML paßt besser.
Ich sehe durchaus die Analogie, dass Intelligenz in vielen Formen kommen kann - auch solche die nicht energieeffizient sind. Ob das dann natürlich wirklich hilfreich für die Menschen sein wird, ist wieder eine andere Frage.
Richtig. Aber es muß eben den Maßstäben echter Intelligenz entsprechen, und nicht modellierten Auswahlverfahren, wie es LLMs darstellen.
Aber ich kann mir - insbesondere wegen Dingen wie dem immer noch exponentiellen Compute-Wachstum - nicht vorstellen, dass wir 100 Jahre brauchen, um _eine_ AGI zu entwickeln (ich rede nicht von der Bereitstellung für Milliarden von Menschen). Wir werden in den nächsten Jahren ein besseres Verständnis entwickeln, bessere Architekturen bauen, etc.
Die große Frage, wie bringst Du einem solchen System Welterfahrung bei? Solange diese Frage nicht beantwortet und gelöst ist, werden wir zu keiner AGI kommen.
Nimm ein einfaches Beispiel: Ein in der Neuzeit geborener erwachsener Mensch, der etwas über 2 Weltkriege oder andere Kriege liest, wo es dann um Vertreibung, Hungersnöte usw. geht, versteht sofort die Begriffe wie Vertreibung und Hunger, und was das für die Menschen als bleibende und tragende Erfahrung der Kriegsgenerationen bedeutet. Eine KI hat hier überhaupt keine Vorstellungen, was Heimat, Verbundenheit, Leiden und eben so was "einfaches" wie Hunger bei Menschen auslöst, was da alles so passiert. All die Grausamkeiten, die dann dort passierten, was die Menschen alles taten, ist schon für Menschen kaum verständlich, aber wir können sehr wohl in Ansätzen es abstrahieren und im Verständnis annähern. Eine KI kann das nur in Form von Texten erfassen und "auswendig" lernen, was da passierte. Ein echtes tiefes Verständnis wird immer fehlen, weil es Triebe und Reize in der Form nicht gibt. Oder nimm all die Literatur und Filme, die sich um das Thema Liebe und Begehren drehen. Wie will das eine KI aktuell überhaupt irgendwie "verstehen"?
Und wer weiß: In 10 Jahren haben wir vielleicht echte AGI.
Ich bin da tiefenentspannt, und nein, wir werden in 10 Jahren keine echte AGI haben. Wenn das Leben so will, sehen wir uns in 10 Jahren wieder, und Du wirst sehen, daß ich richtig liege. :cool: Ich brauche nur diese Artikel lesen:
https://www.scinexx.de/news/technik/wie-gut-ist-ki-in-geschichte/
https://www.scinexx.de/news/technik/wo-die-ki-planlos-ist/
Daher bleibe ich dabei, sobald wir einen künstlichen System keine Möglichkeit geben, Erfahrungen außerhalb seines "Existenzbereiches" mit Sinnen zu erleben, wird das meiner Meinung nach mit AGI nichts. Wir werden sehr spezialisierte ML-Systeme haben, welche hervorragend deterministische Verfahren und einzelne Dinge beherrschen werden, aber mehr auch nicht. Solange nicht der entscheidende Durchbruch passieren wird, werden wir in 100 Jahren noch keine AGI haben, die dem Menschen im entfernten überhaupt gleichen kann.
Badesalz
2025-01-23, 10:41:29
Wie die sich hier gegenseitig in die Tasche halluzinieren. Als wenn es #537 nie gegeben hätte ;)
Gouvernator
2025-01-23, 16:37:42
Der Hype um DeepSeek R1 scheint groß zu sein.
https://youtu.be/-GmEIqi0yNE?si=rqvMDh70wHhWiaZb
Quasi AGI als Local LLM.
Ich kann es selbst bestätigen. Man kann jetzt ohne Scheiß ins Programmieren einsteigen, als ob es ein Mini-Game aus Fallout ist.
Ich habe jetzt mit DeepSeek R1 14B/32B Models eine Timer-App für Windows gebaut in Python.
Mit meinem Programmier-Skill - "Hallo, World" in Basic.:ucoffee:
Und das ist nicht irgendeine Timer-App sondern die von welcher ich seit mindestens 20 Jahren träume... und nirgendwo finden kann.
Die scheint sehr tricky zu programmieren zu sein, weil sogar Llama70B hat mit R1 seitenweise research gemacht.
Die Models konnten es zwar nicht auf Anhieb fehlerfrei schreiben. Aber man gibt den Code einfach einem anderen Model mit der Fehlerbeschreibung und die macht es dann fertig. Es ist unfassbar wie easy es einem erklärt wird was gemacht werden soll.
Das war mein Prompt.
I need i timer app in python for Windows. Make Buttons with 1,5,10,15 minutes. Clicking on them in any order or multiple times should start the timer accumulating their values. Make also cancel-timer button. And close-app button. The timer should be updated with current time and time left to alarm. The alarm-sound should beep-beep for 1 minute, using windows sound. make sure the app does not freeze while fast clicking on the buttons.
Und das ist die Python-App. Bei der Fehlersuche wird einem auch bestimmte Code-Teile vorgeschlagen, so das man genau weiß wohin man was kopieren muss. Man hat quasi eine Programmier-Nanny immer dabei.
Ich weiß nicht, aber dank diesem Model erwirbt man mit AI Max 395+ oder Digits mit 128Gb, quasi einen studierten Sklaven. ;D
import tkinter as tk
from tkinter import ttk, messagebox
import time
import winsound
import os
import sys
from threading import Thread, Event
class TimerApp:
def __init__(self):
self.root = tk.Tk()
self.root.title("Timer App")
self.root.geometry("400x300")
# Variables
self.total_time = 0
self.remaining_time = 0
self.start_time = 0
self.is_running = False
self.alarm_sound_event = Event()
# Create UI elements
self.create_ui()
# Timer update thread
self.timer_update_thread = Thread(target=self.update_timer_label, daemon=True)
self.timer_update_thread.start()
def create_ui(self):
# Main frame
main_frame = ttk.Frame(self.root, padding=10)
main_frame.pack(expand=True, fill='both')
# Time display labels
self.current_time_label = ttk.Label(main_frame, text="", font=('Arial', 14))
self.remaining_time_label = ttk.Label(main_frame, text="", font=('Arial', 14))
self.current_time_label.pack()
self.remaining_time_label.pack()
# Buttons frame
buttons_frame = ttk.Frame(main_frame)
buttons_frame.pack(pady=10)
# Time buttons
times = [1,5,10,15]
for t in times:
btn = ttk.Button(buttons_frame, text=f"{t} min",
command=lambda t=t: self.add_time(t))
btn.pack(side='left', padx=5)
# Cancel and close buttons
self.cancel_btn = ttk.Button(main_frame, text="Cancel Timer",
command=self.cancel_timer)
self.close_btn = ttk.Button(main_frame, text="Close App",
command=self.close_app)
self.cancel_btn.pack(pady=5)
self.close_btn.pack(pady=5)
def add_time(self, minutes):
if not self.is_running:
self.remaining_time += minutes * 60
self.start_timer()
else:
# Add to remaining time while timer is running
self.remaining_time += minutes * 60
def start_timer(self):
self.is_running = True
self.start_time = time.time()
timer_thread = Thread(target=self.run_timer, daemon=True)
timer_thread.start()
def run_timer(self):
while self.remaining_time > 0 and self.is_running:
current_remaining = self.remaining_time
self.alarm_sound_event.clear() # Stop any playing sound
time.sleep(1)
self.remaining_time -= 1
if self.remaining_time <= 0 and self.is_running:
self.play_alarm()
def update_timer_label(self):
while True:
current_time = time.strftime("%H:%M:%S")
remaining_seconds = self.remaining_time
hours, rem = divmod(remaining_seconds, 3600)
minutes, seconds = divmod(rem, 60)
remaining_str = f"{hours:02}:{minutes:02}:{seconds:02}"
self.current_time_label.config(text=f"Current Time: {current_time}")
self.remaining_time_label.config(text=f"Time Left: {remaining_str}")
time.sleep(1)
def play_alarm(self):
# Play beep sound until stopped
self.alarm_sound_event.set()
alarm_thread = Thread(target=self.alarm_loop)
alarm_thread.start()
def alarm_loop(self):
while self.alarm_sound_event.is_set():
winsound.Beep(500, 500) # Beep every half second
time.sleep(0.5)
def cancel_timer(self):
self.is_running = False
self.remaining_time = 0
self.start_time = 0
self.alarm_sound_event.clear()
def close_app(self):
self.alarm_sound_event.clear()
self.root.destroy()
sys.exit()
def main():
app = TimerApp()
app.root.mainloop()
if __name__ == "__main__":
main()
Die App ist extrem gut weil ich sowas zum Tiefkühl-Pizza backen brauche. Ich höre nämlich am PC nichts von der Mikrowelle.
Badesalz
2025-01-23, 17:25:30
@Gouvernator
Du bist der Knaller :D I like it! :up:
Metzler
2025-01-23, 20:12:02
Der Hype um DeepSeek R1 scheint groß zu sein.
https://youtu.be/-GmEIqi0yNE?si=rqvMDh70wHhWiaZb
Quasi AGI als Local LLM.
Ich kann es selbst bestätigen. Man kann jetzt ohne Scheiß ins Programmieren einsteigen, als ob es ein Mini-Game aus Fallout ist.
Ich habe jetzt mit DeepSeek R1 14B/32B Models eine Timer-App für Windows gebaut in Python.
Mit meinem Programmier-Skill - "Hallo, World" in Basic.:ucoffee:
Und das ist nicht irgendeine Timer-App sondern die von welcher ich seit mindestens 20 Jahren träume... und nirgendwo finden kann.
Die scheint sehr tricky zu programmieren zu sein, weil sogar Llama70B hat mit R1 seitenweise research gemacht.
Die Models konnten es zwar nicht auf Anhieb fehlerfrei schreiben. Aber man gibt den Code einfach einem anderen Model mit der Fehlerbeschreibung und die macht es dann fertig. Es ist unfassbar wie easy es einem erklärt wird was gemacht werden soll.
Das war mein Prompt.
Und das ist die Python-App. Bei der Fehlersuche wird einem auch bestimmte Code-Teile vorgeschlagen, so das man genau weiß wohin man was kopieren muss. Man hat quasi eine Programmier-Nanny immer dabei.
Ich weiß nicht, aber dank diesem Model erwirbt man mit AI Max 395+ oder Digits mit 128Gb, quasi einen studierten Sklaven. ;D
import tkinter as tk
from tkinter import ttk, messagebox
import time
import winsound
import os
import sys
from threading import Thread, Event
class TimerApp:
def __init__(self):
self.root = tk.Tk()
self.root.title("Timer App")
self.root.geometry("400x300")
# Variables
self.total_time = 0
self.remaining_time = 0
self.start_time = 0
self.is_running = False
self.alarm_sound_event = Event()
# Create UI elements
self.create_ui()
# Timer update thread
self.timer_update_thread = Thread(target=self.update_timer_label, daemon=True)
self.timer_update_thread.start()
def create_ui(self):
# Main frame
main_frame = ttk.Frame(self.root, padding=10)
main_frame.pack(expand=True, fill='both')
# Time display labels
self.current_time_label = ttk.Label(main_frame, text="", font=('Arial', 14))
self.remaining_time_label = ttk.Label(main_frame, text="", font=('Arial', 14))
self.current_time_label.pack()
self.remaining_time_label.pack()
# Buttons frame
buttons_frame = ttk.Frame(main_frame)
buttons_frame.pack(pady=10)
# Time buttons
times = [1,5,10,15]
for t in times:
btn = ttk.Button(buttons_frame, text=f"{t} min",
command=lambda t=t: self.add_time(t))
btn.pack(side='left', padx=5)
# Cancel and close buttons
self.cancel_btn = ttk.Button(main_frame, text="Cancel Timer",
command=self.cancel_timer)
self.close_btn = ttk.Button(main_frame, text="Close App",
command=self.close_app)
self.cancel_btn.pack(pady=5)
self.close_btn.pack(pady=5)
def add_time(self, minutes):
if not self.is_running:
self.remaining_time += minutes * 60
self.start_timer()
else:
# Add to remaining time while timer is running
self.remaining_time += minutes * 60
def start_timer(self):
self.is_running = True
self.start_time = time.time()
timer_thread = Thread(target=self.run_timer, daemon=True)
timer_thread.start()
def run_timer(self):
while self.remaining_time > 0 and self.is_running:
current_remaining = self.remaining_time
self.alarm_sound_event.clear() # Stop any playing sound
time.sleep(1)
self.remaining_time -= 1
if self.remaining_time <= 0 and self.is_running:
self.play_alarm()
def update_timer_label(self):
while True:
current_time = time.strftime("%H:%M:%S")
remaining_seconds = self.remaining_time
hours, rem = divmod(remaining_seconds, 3600)
minutes, seconds = divmod(rem, 60)
remaining_str = f"{hours:02}:{minutes:02}:{seconds:02}"
self.current_time_label.config(text=f"Current Time: {current_time}")
self.remaining_time_label.config(text=f"Time Left: {remaining_str}")
time.sleep(1)
def play_alarm(self):
# Play beep sound until stopped
self.alarm_sound_event.set()
alarm_thread = Thread(target=self.alarm_loop)
alarm_thread.start()
def alarm_loop(self):
while self.alarm_sound_event.is_set():
winsound.Beep(500, 500) # Beep every half second
time.sleep(0.5)
def cancel_timer(self):
self.is_running = False
self.remaining_time = 0
self.start_time = 0
self.alarm_sound_event.clear()
def close_app(self):
self.alarm_sound_event.clear()
self.root.destroy()
sys.exit()
def main():
app = TimerApp()
app.root.mainloop()
if __name__ == "__main__":
main()
Die App ist extrem gut weil ich sowas zum Tiefkühl-Pizza backen brauche. Ich höre nämlich am PC nichts von der Mikrowelle.
Und das bekommt GPT4 und ähnliche nicht hin? Die App sieht jetzt nicht so kompliziert aus... Gleichzeitig vermute ich stark dass auch Deepseek R1 an "echten" Anwendungen (d.h. deutliche größere Code-Basen) scheitern wird.
Gouvernator
2025-01-24, 00:10:19
Die Youtuber testen neue LLMs und zwar die großen(!), mit einem simplen Snake-Game. Und da scheitern schon die meisten. Meine Timer-App ist glaube ich schon um einiges komplizierter. Laut meinem Bug Hunting, gab es immer die Schwierigkeiten beim Multi-Threading. Ich war auch überzeugt das es genau deswegen noch nie eine so einfach-komplizierte Timer-App gab.
Gouvernator
2025-01-24, 00:26:48
Ich kann ja mal posten für was 70B Modell da fast 8 Minuten zum denken gebraucht hat.
Okay, I need to create a Python timer app for Windows. Let me break down what the user is asking for.
First, they want a GUI with buttons for 1, 5, 10, and 15 minutes. These buttons should add their respective times to the current timer when clicked, even if clicked multiple times in any order. So I need to sum up the times each time a button is pressed.
Next, there should be a cancel button to stop the timer. That means resetting the timer or stopping it entirely, probably also stopping the alarm sound if it's running.
An close-app button is needed as well, which I assume is an exit button to close the application.
The timer needs to show both the current time and the time left until the alarm goes off. So I need a display that updates as the timer progresses.
When the timer reaches 1 minute (or when it's about to end), there should be a beep-beep sound. The buttons also act like snooze buttons, meaning if I press them again after setting a timer, they might extend or reset the alarm.
Hmm, for the GUI, using Tkinter in Python makes sense since it's built-in and suitable for Windows. I'll structure this with a main window, a label to show the time left, and buttons for each interval and cancel/exit.
I'll need to handle the timer with a start button or just have the buttons add time when clicked. Wait, no, the user clicks the buttons to accumulate time. So maybe each button click adds its value to a total timer in seconds. Then, when the timer is started, it counts down from that total.
Wait, but the user might press 1 minute and then 5 minutes, so the total would be 6 minutes. The timer should show how much time is left as it counts down.
So I'll need to start a timer when the total seconds are set, perhaps with a start button or automatically upon pressing the buttons. Or maybe each button press adds to the current timer and starts it if not running.
Also, for the snooze function, the user can extend by pressing another button again before the alarm ends, which is 1 minute away from the end.
So when the timer reaches 1 minute left, a beep should occur.
Now, for the sound, in Python, I can use winsound to play a beep. But since the user mentioned "beep-beep", maybe two beeps or a specific frequency.
I'll structure the code as follows:
Import necessary modules: Tkinter for GUI, time for handling time, and winsound for the beep.
Create a main window with a label showing the current time left (initially 0).
Buttons for each duration in seconds converted to minutes. For example, 1 minute is 60 seconds.
A cancel button to reset the timer and stop any sounds.
An exit button to close the application.
Wait, but how to handle the timer? Maybe using a thread or after method to update every second. Or use a countdown function that updates the label each second.
Let's outline the steps:
Create a Timer class with attributes for root time in seconds, state (running or not), and the current time left.
The buttons will call a function to add their value to the total timer in seconds.
When a button is clicked, it adds that duration to the current timer, which starts counting down if not already running.
When the cancel button is pressed, the timer stops and resets to 0, and any beeps are stopped.
The close app button will exit the application.
Wait, but in the user's request, they might start with a 1-minute timer, then add another duration before it ends, which would act like a snooze. So perhaps each button press adds to the current timer's remaining time.
For example:
Click 5 minutes (300 seconds) → timer starts at 300.
After some time, click 10 minutes (600 seconds) → timer adds 600 to the remaining time. Or wait, no, because if the timer is already running, adding more time would extend it further.
Alternatively, perhaps each button press restarts or continues the timer with the new duration added to the current total.
But I think the user expects that when you click a button again before the alarm ends (i.e., in the 1-minute mark), it adds another snooze period. So for example, if the remaining time is 1 minute and beeps once, clicking another button would add more time.
So perhaps each button press after the timer is running adds to the total time left.
But let me think about how the code should handle this:
Each time a button is clicked, it's adding that duration in seconds to the current timer. So if you have 5 minutes (300 seconds) and then click 1 minute again, it adds 60 seconds, making the remaining time 360 seconds.
Wait no, because clicking 1 minute would add 60 seconds to the total timer.
So when the user clicks a button multiple times, each click adds that duration to the current timer's total. So the timer is cumulative in that way.
But for snooze functionality, if you have an active timer and it's about to end (reaches 1 minute left), any button press would reset or add more time.
So perhaps when the timer is running, pressing a button adds that duration to the current remaining time. But also, when the timer reaches 1 minute left, it beeps once, but if the user clicks another button before it ends (the next 1 minute?), it adds more time.
Hmm, maybe I'm overcomplicating. Let me think about the code structure:
Create a variable to track total seconds.
When a button is clicked, add its value to total_seconds.
Start a timer that counts down from total_seconds.
While counting, if total_seconds reaches 1 minute (60 seconds) left, play a beep.
Wait, but the user might click multiple buttons in any order. So each time they press a button, it adds to the total_seconds and resets the timer.
For example:
Click 5 minutes → total = 300.
Then click 15 → total += 900 → total = 1200 seconds (20 minutes).
The timer counts down from 1200 seconds, showing how much is left in real-time.
So every second, the timer decreases by 1.
When it reaches 60 seconds remaining, play a beep. Wait, but that's 1 minute before the alarm ends.
Wait no, if total_seconds is 300 (5 minutes), when it counts down to 60 seconds, which is 1 minute left, it should beep once, and then again when it reaches zero.
Alternatively, perhaps the user expects that when the timer has only one minute left, a single beep occurs, and then at the end, another beep. But in this case, the user mentioned "beep-beep", so maybe two beeps.
But I'm not sure about that; perhaps just one beep when it's 1 minute left.
Now, to handle the snooze functionality, any button press during the last minute would add more time. So for instance, if you have a timer that's about to end (1 minute left), clicking another button adds more time to the current timer.
Wait no, because the user said the buttons should act like snooze as well. So when you click a button again after the alarm has started, it adds more time and resets the timer.
So perhaps each button press restarts or adds to the current timer's remaining time.
But I'm not entirely clear on that, so maybe in code terms:
When a button is clicked, add its value (1,5,10,15 minutes) in seconds to total_seconds.
Start the timer if it wasn't running, and count down from total_seconds.
In this way, each button press adds more time, and clicking another button before the alarm ends (i.e., during the 1-minute mark) will add more time.
So the beeps occur when the remaining time reaches 1 minute (60 seconds) left. So in the countdown, we need to check if remaining_time is 60 seconds and then trigger a beep.
Now, implementing this:
First, create a function that takes total_seconds and updates every second, decrementing by one each second until zero. When it's down to 60 seconds, play a beep.
But in Python's Tkinter, I can use the after() method with a delay of 1000 milliseconds (1 second) for each step.
So in code:
Create a root window.
Initialize total_seconds = 0
label = Label(root, text="Remaining time: ", ...)
buttons for each duration (1,5,10,15 min)
cancel button to reset timer and stop any beeps
exit button to close the app
Each button's command is a function that adds its value in seconds to total_seconds.
Then, when a button is clicked:
def add_time(minutes):
global total_seconds
total_seconds += minutes * 60
if not timer.is_running():
start_timer()
But wait, how do I handle the running state? Maybe have a flag indicating whether the timer is active or not. So each time a button is pressed, it adds to total_seconds and starts the countdown.
Wait no, because if you press two buttons in a row, that would add both durations but the timer should be counting down from the new total.
So perhaps every time a button is clicked, it stops any existing timer, adds the new duration, and starts again.
Alternatively, each button press increments the total_seconds by its value and continues the countdown.
But I think for simplicity, when you click a button, add to total_seconds and start the countdown from there.
Now, the cancel button would stop the timer and reset total_seconds to 0, stopping any beeps.
The exit button would close the application using destroy or something similar.
So in code:
import tkinter as tk
from winsound import Play, MB, BEAM, MB_TYPE & BEAM_ etc.?
Wait, but the module is called winsound, and I can use it to play sounds.
For example, Play("beep", "system") would play a beep sound.
So when the timer reaches 60 seconds left (1 minute), we play a beep.
But how do we detect that? Each second, decrement by one. So in the count_down function:
def count_down():
global total_seconds
if total_seconds >0:
mins = total_seconds // 60
secs = total_seconds %60
time_str = f"Remaining: {mins} minutes, {secs} seconds"
label.config(text=time_str)
total_seconds -=1
if total_seconds ==60:
Play("beep", "system") # or use winsound.Beep(1000, 300, 0, 0) etc.
root.after(1000, count_down)
else:
if alarm is triggered.
Wait, but when the timer reaches zero, perhaps play another beep. So maybe in the code:
When total_seconds reaches zero, trigger an alarm event.
But in our case, we only need to notify when it's 1 minute left and at the end (zero). Or just one notification when it's 1 minute left.
So in the count_down function, each time second is decremented by one. When remaining_time is 60 seconds, play a beep.
Now, for the snooze functionality, if during this period (last minute) another button is clicked, it would add more time to total_seconds and continue counting down.
But how? Because once the user clicks a button again, it adds more time, so the timer would reset to the new duration. So in code:
Each button command adds their value to total_seconds, and if the timer is running (or not), starts the countdown from that point.
So the add_time function could be:
def add_time(duration):
global total_seconds
total_seconds += duration * 60 # assuming duration is passed as minutes
start_countdown()
But in code, each button's command would call this with their specific value (like 1,5, etc.)
Now, the start_countdown function would be:
def start_countdown():
label.config(text=f"Remaining: {total_seconds//60} minutes")
# and then decrement each second.
Wait, but it's more efficient to update the label once per second as we decrement total_seconds.
So perhaps in the count_down function, which is called every 1000 milliseconds (1 second), it decrements total_seconds and updates the label.
Now, putting all this together:
But I have to handle the initial state when no timer is running. So default total_seconds is 0, and the label shows "Select a duration".
When a user clicks a button, add that duration to total_seconds and start the count down.
The cancel button would reset total_seconds to 0, stop any beeps, etc.
The close button would exit the application.
Now, I think the structure should look like this:
Import necessary modules.
Create the main window with Tkinter.
Create a global variable for total_seconds and whether the timer is running or not.
Define functions for adding time, starting the count down, canceling, and exiting.
Set up buttons to call these functions.
Implement the countdown in the count_down function which updates every second.
But I'm not sure about the exact code structure. Let's think of each step:
Import modules: tkinter, winsound (but wait, is that a module? Or maybe I should use the winsound module for the beep sounds.)
Create the main window: root = tk.Tk() root.title("Timer App")
Create a label to display remaining time: label = tk.Label(root, text="Remaining time: 0 minutes", font=('Arial', 20)) label.pack()
Create buttons for each duration:
button_1 = tk.Button(root, text="1 min", command=lambda: add_time(1))
button_5 = tk.Button(root, text="5 min", ...)
and so on.
Wait, but in the add_time function, I need to add seconds. So perhaps the buttons call a lambda with their respective minutes multiplied by 60.
Like:
button_1 = tk.Button(root, text="1 min", command=lambda: add_time(160))
button_5 = ... (560)
etc.
But in the add_time function, I'll convert it to seconds and add to total_seconds.
Wait no, perhaps the add_time function can take the minutes as an argument and multiply by 60 inside. But maybe that's overcomplicating; alternatively, each button could pass their value directly as seconds.
Alternatively, create a list of tuples for buttons: (text, command).
But I think in code, it's better to have each button call add_time with the correct duration in seconds.
So:
button_1 = tk.Button(root, text="1 min", command=lambda: add_time(60))
button_5 = ... (5*60=300)
button_10 = ... (600)
button_15 = ... (900)
But perhaps more cleanly, create a list of durations and buttons in a loop.
Wait, but for simplicity, perhaps I'll hardcode each button with their respective durations.
Next, the cancel button:
cancel_button = tk.Button(root, text="Cancel", command=lambda: reset_timer())
The close button:
exit_button = tk.Button(root, text="Close App", command=root.destroy)
Now, the functions:
def add_time(seconds):
global total_seconds
total_seconds += seconds
Wait no, because adding 60 would mean 1 minute. So each button adds their respective duration in seconds.
But wait, no. Because if I have a current timer of 5 minutes and then add another 1 minute, it should extend by that time.
So when a user clicks the 1 min button, it adds 60 seconds (1 minute) to total_seconds.
Thus, in code:
button_1 = tk.Button(root, text="1 min", command=lambda: add_time(60))
button_5 = ... adding 300
button_10 = ... adding 600
button_15 = ... adding 900
So the add_time function is:
def add_time(seconds):
global total_seconds
total_seconds += seconds
Then, when a button is clicked, it adds that number of seconds to total_seconds.
But how do we start the count down? Because each time a button is clicked, we need to update the label and decrement every second.
So after adding the seconds, call start_countdown() which starts the countdown.
Wait, but in code:
def add_time(seconds):
global total_seconds
total_seconds += seconds
start_countdown()
But wait, what if the timer was already running? Adding more time would extend it further. So each button press adds to the current timer and continues counting down from that new value.
So when a user clicks another button, it stops the current countdown (if any), adds the new duration, and starts again.
Wait no, because adding to total_seconds directly is not correct if the timer has already started and some seconds have passed.
For example:
Current time: 300 seconds (5 min)
User clicks +1 minute → total_seconds +=60 → total becomes 360 But that's incorrect, because the current timer is at 300 seconds. Adding another minute should bring it to 360 seconds remaining.
So adding to total_seconds as a global variable would work, assuming that the count down function decrements from there.
Wait no, because if you start with 5 minutes (300 sec), then add 1 min (60), the total becomes 360. So when you decrement each second, it's correct.
But in code:
Each button adds to total_seconds, and the countdown continues from that new value.
So when a user clicks another button during an active timer, it just adds more time, which is exactly what the snooze function would do.
Thus, the add_time function should take the duration in seconds and add it to the global total_seconds.
Now, for the count_down function:
def count_down():
global total_seconds
if total_seconds >0:
mins = total_seconds // 60
secs = total_seconds % 60
time_str = f"Remaining: {mins} minutes, {secs} seconds"
label.config(text=time_str)
total_seconds -=1 # decrement by one second after each call
if total_seconds == 60:
# play a beep when reaching 1 minute left
Play("beep", "system")
root.after(1000, count_down)
else:
# alarm goes off here (perhaps another beep or other action)
Play("beep", "system")
reset_timer() # reset after the timer has ended
Wait, but when total_seconds reaches zero, it should play a final beep and then reset.
So in this code, the count_down function is called every 1000 milliseconds (1 second). It decrements total_seconds by 1 each time. When it's down to 60 seconds remaining, we play a beep. Then at the end (total_seconds is zero), another beep.
But I think I might need to adjust this logic because when total_seconds reaches 60, the next iteration would be 59 and so on. So perhaps during count_down, if before decrementing, total_seconds is 60, then we play a beep.
Wait no, in code:
The current count_down function is called each second, and decrements total_seconds by 1 each time.
So to detect when it's 1 minute (60 seconds) left, I can check after the decrement but before the next iteration. Or perhaps inside the count_down function, every time after a second is decremented, we check if total_seconds == 60.
But in code:
def count_down():
global total_seconds
if total_seconds >0:
mins = total_seconds //60
secs = total_seconds %60
# update label
label.config(...)
# decrement
total_seconds -=1
# check for 1 minute left
if total_seconds == 60:
Play("beep") # assuming this is the correct way to play a beep.
else:
# end of timer, play final beep and reset.
Play("beep")
reset_timer()
root.after(1000, count_down)
But I'm not sure if that's the correct order. Because when total_seconds reaches 60 after decrementing by one from 61 to 60.
Wait no: initial value is say 300 seconds (5 minutes). Then each second decremented by 1 until it's down to 60 seconds remaining, then we play a beep.
So in code:
At the start of count_down, if total_seconds >0, do:
calculate mins and secs
update label
decrement by one
check if after decrementing, total_seconds is 60, if yes, play a beep
Wait no, because when you have say 120 seconds (2 minutes) and then subtract 1 to make it 119, which is not 60.
So perhaps the correct way is:
After the subtraction, check whether the new value is 60. If so, play a beep.
But in code:
In count_down function, after subtracting one from total_seconds, if the current value is 60, then Play("beep").
Thus, when the remaining time reaches 1 minute (60 seconds), it triggers a beep.
At the end of the timer (when total_seconds reach zero), play another final beep and reset.
So in code:
def count_down():
global total_seconds
if total_seconds >0:
mins = total_seconds //60
secs = total_seconds %60
label.config(text=f"Remaining: {mins} minutes, {secs} seconds")
# decrement by one second
total_seconds -=1
# check for 60 seconds remaining after subtraction
if total_seconds == 60:
Play("system beep") # or other method to play a sound.
else:
# end of timer, play final alarm and reset.
Play("final beep")
reset_timer()
But how do I play the beeps? Because the winsound module has specific functions. For example:
winsound.Beep(1000, 300, 000, 000) but I'm not sure about the parameters.
Alternatively, using the 'playsound' module or other methods.
Wait, the user might need to have sound files in their path. Alternatively, use system sounds.
In this case, perhaps the winsound module can be used with specific frequencies and durations.
But perhaps it's easier to use a .wav file as the alarm sound.
Alternatively, I can use a default beep sound from the system, assuming it's available.
But perhaps the code will look something like this:
When total_seconds reaches 60 after subtraction, play a short beep. At the end (when 0), play another beep.
So in code:
Inside count_down(), when total_seconds ==60:
winsound.Beep(1000, 300, 0, 0) # or other parameters.
But I'm not sure about the exact syntax here.
Alternatively, perhaps using a function to play a system sound. But this might require having the correct .wav files in the path.
Well, perhaps for the scope of this problem, we can assume that the system beeps can be triggered as such.
Now, the reset_timer function would set total_seconds back to 0 and reset the label.
But how?
In code:
def reset_timer():
global total_seconds
total_seconds = 0
label.config(text="Timer canceled.")
# stop any ongoing count_down
But stopping the count down is tricky because it's a recurring after() call. So perhaps in addition to resetting total_seconds, we can break the after() loop.
Alternatively, when reset_timer is called, it stops the after() schedule.
But how?
Perhaps using a global variable like 'timer_running' and checking whether it's running before proceeding.
But for simplicity, perhaps just resetting total_seconds will stop the count_down function as it relies on that variable being greater than zero.
So in code:
When reset_timer is called, set total_seconds to 0. The next time count_down is called (from after()), it will find total_seconds <=0 and thus stop executing.
Thus, the reset_timer function can be:
def reset_timer():
global total_seconds
total_seconds = 0
label.config(text="Timer canceled.")
Now, putting all this together, I think the code should look like this:
Import required modules.
Create main window.
Define and initialize global variables (total_seconds as 0).
Set up buttons to call add_time with their durations.
Set up a count_down function that is called every second, updating label and decrementing total_seconds.
But in Python, the after() method requires some event loop management. But since we're using Tkinter, it's handled automatically.
Thus, the code outline would be:
import tkinter as tk
from winsound import Play, MB, system, etc.
global total_seconds = 0
def add_time(seconds):
global total_seconds
total_seconds += seconds
def count_down():
if total_seconds >0:
mins = total_seconds //60
secs = total_seconds %60
label.config(text=f"Remaining: {mins} min, {secs} sec")
total_seconds -=1
if total_seconds == 60:
# Play a beep for reaching 1 minute left.
Play("system", "beep")
else:
# Alarm triggered. Play final beep and reset.
Play("system", "final_beep")
reset_timer()
root.after(1000, count_down)
def reset_timer():
global total_seconds
total_seconds = 0
label.config(text="Timer canceled.")
root.mainloop()
Wait, but I'm not sure about the exact way to play sounds with winsound. Perhaps using:
winsound.Beep(1000, 300, 000, 00) or something else.
Alternatively, perhaps it's better to use a .wav file for the sound and trigger it via another method.
But in any case, I think this is the structure of the code that would fulfill the user's requirements.
Meine Timer-App ist glaube ich schon um einiges komplizierter.
Nein.
Laut meinem Bug Hunting, gab es immer die Schwierigkeiten beim Multi-Threading.
Alleine, dass es mehr als 2 Threads gibt ist... ziemlich schlechtes Design.
Im Code-Review würde ich folgendes bemängeln:
start_time - wird nie gelesen, ist also nutzlos
total_time - wird nicht einmal genutzt
add_time - das if deutet eine Fallunterscheidung an - enthält dann aber gleichen Code
run_timer, update_timer_label und play_alarm laufen in verschiedenen Threads :confused:
run_timer timed mit sleep() :ugly:
Mess mal nach, wie lange dein Timer läuft... Selbst wenn dein System idlet würden mich da 9 heimliche Extrasekunden auf die Viertelstunde nicht überraschen. Mit ausgleasteter CPU kann das deutlich mehr werden.
update_timer_label formatiert die Restzeit händisch
alarm_thread ist kein deamon
P.S: Ich kenne mich mit Python nicht aus. Die Probleme mit der Codequalität sind nur so offensichtlich.
Um den Bogen zum Topic zu spannen:
Codequalität scheint (dem Laien) auf den ersten Blick kein Problem zu sein, da die Komplexität ja von einem LLM gehandhabt wird.
Allerdings kann ich mir nicht vorstellen, dass das mittel/langfristig ohne ordnetliches Refactoring gut geht.
Es sammeln sich doch zu viele nutzlose Leichen und zu umständliche Konstrukte, als dass die Codebasis als ganzes sauber verstanden werden kann.
Wüsste jetzt auch nicht, woher man größere Mengen an Trainingsdaten bekommt, die konkrete Fälle schlechter Codequalität hervorhebt.
Da kann ich mir gut vorstellen, dass LLM sich sehr viel schwerer tun unnützen oder unnötig komplizierten Code zu identifizieren. Und das wird nicht besser, je länger die Codebasis besteht.
Mortalvision
2025-01-24, 06:32:48
Kommt was Besseres raus, wenn man die Anfrage an ChatGPT stellt?
Metzler
2025-01-24, 07:11:45
@Mortalvision: Wahrscheinlich nicht (zumindest meine letzten Versuche waren immer sehr überschaubar)
Und full ack @#44.
Man merkt halt auch hier, dass es ein "Wiederkauen" ist und keine richtige Intelligenz, sonst würde es solche Dinge bemerken. Bleibt natürlich am Ende des Tages dennoch übrig, dass es nett ist, dass das überhaupt geht. Zeigt aber auch wieder: In der echten Software-Entwicklungswelt kommst Du auch damit nicht wirklich weit bis auf evtl. Unterstützung bei ein paar sehr lokal eingrenzbaren Problemen. Sobald die Codebase größer wird, kannst Du es dann eh vergessen.
Dazu passend: https://www.youtube.com/shorts/64TNGvCoegE ;D
Metzler
2025-01-24, 07:34:10
Neues Interview mit Demis Hassabis (Google Deepmind CEO):
https://www.youtube.com/watch?v=yr0GiSgUvPU
Edit: Ich mag Hassabis. Bescheiden, wissend, nicht dem massiven Hype verfallen wie viele andere (*hust*Altman*hust*).
ChaosTM
2025-01-24, 07:59:37
Neues Interview mit Demis Hassabis (Google Deepmind CEO):
https://www.youtube.com/watch?v=yr0GiSgUvPU
Edit: Ich mag Hassabis. Bescheiden, wissend, nicht dem massiven Hype verfallen wie viele andere (*hust*Altman*hust*).
Ich auch. Der hat schon mit 15 damals die KI für Populous II und andere Bullfrog/Lionheart Spiele erstellt.
Dem hört man gerne zu.
Gouvernator
2025-01-24, 15:53:08
Nein.
Alleine, dass es mehr als 2 Threads gibt ist... ziemlich schlechtes Design.
Im Code-Review würde ich folgendes bemängeln:
start_time - wird nie gelesen, ist also nutzlos
total_time - wird nicht einmal genutzt
add_time - das if deutet eine Fallunterscheidung an - enthält dann aber gleichen Code
run_timer, update_timer_label und play_alarm laufen in verschiedenen Threads :confused:
run_timer timed mit sleep() :ugly:
Mess mal nach, wie lange dein Timer läuft... Selbst wenn dein System idlet würden mich da 9 heimliche Extrasekunden auf die Viertelstunde nicht überraschen. Mit ausgleasteter CPU kann das deutlich mehr werden.
update_timer_label formatiert die Restzeit händisch
alarm_thread ist kein deamon
P.S: Ich kenne mich mit Python nicht aus. Die Probleme mit der Codequalität sind nur so offensichtlich.
Um den Bogen zum Topic zu spannen:
Codequalität scheint (dem Laien) auf den ersten Blick kein Problem zu sein, da die Komplexität ja von einem LLM gehandhabt wird.
Allerdings kann ich mir nicht vorstellen, dass das mittel/langfristig ohne ordnetliches Refactoring gut geht.
Es sammeln sich doch zu viele nutzlose Leichen und zu umständliche Konstrukte, als dass die Codebasis als ganzes sauber verstanden werden kann.
Wüsste jetzt auch nicht, woher man größere Mengen an Trainingsdaten bekommt, die konkrete Fälle schlechter Codequalität hervorhebt.
Da kann ich mir gut vorstellen, dass LLM sich sehr viel schwerer tun unnützen oder unnötig komplizierten Code zu identifizieren. Und das wird nicht besser, je länger die Codebasis besteht.
Naja was für Codequalität kann man von einem quantisierten 32B/14B schon erwarten? Das es überhaupt aus dem Stand was brauchbares abliefert grenzt an ein Wunder.
Vor allem die Hardware an meiner Seite ist für das Ergebnis beeindruckend. Es war der Handheld Legion Go an einer RTX3090 per USB4, ohne Maus und Tastatur nur per Touchscreen in 60Hz. Ist das nicht geil? Wenn ein Dumbo mit Touchscreen an einem Handheld, aus dem Stand eine nützliche App nach seinen Vorgaben bauen kann. ;D
Kriegsgeier
2025-01-24, 20:50:37
Ist also DeepSeek der Gamechanger in der LLMs Industrie?
US Dominanz gebrochen?
https://youtu.be/WEBiebbeNCA?si=GaMhoeUXNAy7Iu_0
Gouvernator
2025-01-24, 23:10:11
Also ich denke die Lokale-LLM Zukunft wird definitiv bei starken APUs liegen. Ich hab jetzt meine RTX3090 abgeklemmt und nur Legion Go mit seinem 16GB Speicher genutzt. Das ist echt lustig. Ich kann damit problemlos alles bis knapp 6,6GB nutzen. Die 14B R1 uncensored Modelle laufen prima mit 5 Tokens/Sek.
Theoretisch muss man jetzt bei neueren Handhelds auf 32GB Ram achten, besser 64GB. Das ist dann genau so gut wie eine NV Profi-Karte. :ulol:
Notfalls nimmt man einfach den billigsten AI Max+ Mini-PC mit 64Gb wenn die denn kommen.
Ist also DeepSeek der Gamechanger in der LLMs Industrie?
DeepSeek R1 ist das beste LLM, das ich bisher länger benutzt habe. o1 war mir immer zu teuer, da hat man bei pay-per-use schnell mal 0,50€ für 2-3 Antworten in einem Thread.
Zu Gamechanger: es ist so gut, dass die US KI-Leute spekulieren, dass DeepSeek bei den Trainings-Kosten lügt.
Gouvernator
2025-01-25, 01:49:03
Mal ein handfester Benchmark zu 5090.
8B R1 = 78 T/s
https://youtube.com/shorts/GWCsdGPh1_o?si=T713ieWfwsqQiQJm
Ich suche gerade ein Vergleich zu einer 4090, finde aber nichts.
Wenn du eine 4090 hast, kannst du https://lmstudio.ai/ und das im Video genannte https://lmstudio.ai/model/deepseek-r1-llama-8b runterladen und selbst ausprobieren.
Der Inhalt vom Prompt ist für Geschwindigkeit egal, wichtig/interessant ist nur die Länge von Input und Output.
Wenn du eine 4090 hast
Schon verkauft...:(
konkretor
2025-01-25, 18:24:38
du kannst auch ollama nutzen und es einfach auf der cpu laufen lassen, wichtig ist halt das genug ram da ist, das llm muss im ram geladen sein. dann ist zwar echt lahm, besser wie nichts. mache ich gerade auch auf meinem frankenstein server.
Mit einer 3090 und LM Studio wie im Video bekomm ich:
45.52 tok/sec • 2068 tokens • 0.24s to first token
konkretor
2025-01-25, 18:27:50
Mal eine Frage in die Runde. Wie lässt sich ein Bot bauen der zum Beispiel dem Vertriebsmitarbeiter die Bestell E-Mail abnimmt und das ganze Zeug per REST API ans ERP verfüttert.
Klar es muss eine art RAG geben. REST API Beschreibung muss da sein. Sogar das LLM fein tunen mit den daten. Es sind genug Bestellungen vorhanden im System um daraus Test Daten zu generieren für ein Training.
Das ganze sollte Lokal laufen. Denkanstöße mit was so etwas umgesetzt werden kann, sind gerne willkommen.
Das hat Anthropic letztens besser beschrieben als ich es könnte: https://www.anthropic.com/research/building-effective-agents
Mit einer 3090 und LM Studio wie im Video bekomm ich:
45.52 tok/sec • 2068 tokens • 0.24s to first token
Danke fürs Messen :up:.
Klar es muss eine art RAG geben. REST API Beschreibung muss da sein. Sogar das LLM fein tunen mit den daten. Es sind genug Bestellungen vorhanden im System um daraus Test Daten zu generieren für ein Training.
Das ganze sollte Lokal laufen. Denkanstöße mit was so etwas umgesetzt werden kann, sind gerne willkommen.
Da muss man nix trainieren, ein RAG bauen oder Agentensysteme aufsetzen. Einfach dem LLM per Few-Shot ein paar Beispiele in den Prompt packen und los gehts.
Gouvernator
2025-01-27, 19:26:46
https://www.golem.de/news/chinesische-ki-deepseek-schockt-meta-openai-und-co-2501-192766.html
DeepSeek R1 macht wohl alles richtig.
Es gibt schon 1.5B Qwen R1. Damit kann man mit jedem neueren 16Gb Handheld Reasoning betreiben.
MSABK
2025-01-27, 19:50:30
Liest sich gut. Wo ist der Haken? Oder ist das viel Show um nichts bei OpenAI und co?
konkretor
2025-01-27, 20:58:24
Da muss man nix trainieren, ein RAG bauen oder Agentensysteme aufsetzen. Einfach dem LLM per Few-Shot ein paar Beispiele in den Prompt packen und los gehts.
Danke, dann bin ich auf dem richtigen weg. Ich habe mir jetzt mal langflow angeschaut und das ist genau das was ich gesucht habe. Playground geht soweit. Mein Problem ist hier, mit was lass ich das json Produktiv laufen.
Ich habe etwas mit Langserve gefunden dort wurde aber angekünigt man solle neue Projekte mit einem bezahl Projekt starten. Mir fehlt der Übergang wie ich diese js in einem Anwendungs Server laufen lassen kann.
Langflow / Langserve? Wozu den ganzen Kram?
Mit Flask/FastAPI die REST-API bauen (10 Zeilen)
Anbindung direkt an OpenAI (5-10 Zeilen)
dein Code (x Zeilen)
Schreibt auch Antrophic im Guide so:
We suggest that developers start by using LLM APIs directly: many patterns can be implemented in a few lines of code.
Badesalz
2025-01-27, 22:04:55
Kann mich wer kurz aufklären was hier eigentlich das Prob ist?
https://www.swissinfo.ch/eng/multinational-companies/us-restricts-switzerlands-access-to-ai-chips/88781270
konkretor
2025-01-27, 22:28:50
Die Schweit gehört nicht zur EU und muss dementsprechend Verträge mit den USA selbst aushandeln. Du kannst sachen in die Schweiz importieren die sind in der EU verboten und umgekehrt.
Was seltsam ist Polen hat auch eine Begrenzung bekommen bei dem Thema.
Fusion_Power
2025-01-28, 00:18:52
Scheint echt hohe Wellen zu schlagen wenn schon die normalen Nachrichten im TV über die neue China-KI berichten. Hab von dem Thema wenig Plan aber scheint wohl doch was ernsteres zu sein wenn NVidia gleich mal -16% hinlegt weil irgend eine von tausenden China-KI angeblich was kann was andere nicht können, oder so.
Als Laie kann ich da nur staunen. Aber immerhin, "Deepseek" scheint recht ressourcenschonend zu arbeiten im Vergleich zu den etablierten KI, das allein ist ja auch schon viel wert.
Gouvernator
2025-01-28, 03:01:07
Scheint echt hohe Wellen zu schlagen wenn schon die normalen Nachrichten im TV über die neue China-KI berichten. Hab von dem Thema wenig Plan aber scheint wohl doch was ernsteres zu sein wenn NVidia gleich mal -16% hinlegt weil irgend eine von tausenden China-KI angeblich was kann was andere nicht können, oder so.
Als Laie kann ich da nur staunen. Aber immerhin, "Deepseek" scheint recht ressourcenschonend zu arbeiten im Vergleich zu den etablierten KI, das allein ist ja auch schon viel wert.
"China-AI". ;D. Ne es geht auch konkreter.
OpenAI hat erst im September 2024 O1-Mini mit Reasoning für Tier 5 User erlaubt.
Today, we are launching o1-mini to tier 5 API users(opens in a new window) at a cost that is 80% cheaper than OpenAI o1-preview.
Das ist nochmal was anderes als Token-Kauf.
Tier 5 $1,000 paid and 30+ days since first successful payment
Reasoning sollte quasi so eine elitäre Funktion für Power-User werden. Das ist an sich ein Milestone zu AGI.
Und jetzt kommt DeepSeek R1 Distil, völlig umsonst. Wo du dieses Reasoning mit Qwen/Llama an jedem SteamDeck nutzen kannst. Die sagen ja nicht umsonst schon "AGI in Hosentasche".
Der neue AI 395+ Chip im Z13 Asus Tablet wird deswegen noch heftig einschlagen. Den Leuten ist es noch nicht bewusst was das bedeutet, ein dünnes Tablet plus 70B LLM mit Reasoning... Die teure Version soll ja die vollen 128Gb RAM erhalten, das heißt zusätzlich 1 Million Tokens Kontext Länge zusätzlich. Ich hab mir schon deswegen "Qwen 14B R1 1M" vorsorglich runtergeladen. Boy oh boy oh boy...=)
Fusion_Power
2025-01-28, 03:30:31
Wo und wie nutze ich diese KI denn nun in der Praxis? Gibts fertige Frontends oder konkrete Projekte wo man sich nicht selber alles zusammen basteln muss? Und macht diese KI nur Text oder kann auch Grafik? Brauch da ehr was greifbares zum Verständniss, weniger Abstraktes.
Und wie siehts eigentlich generell mit dem AI Hardware Support neuer CPUs und GPUs aus? Die werden zwar ständig mit ihren TOPS beworben aber oft gibts keinerlei Listen welche Programme diese Features denn nun wirklich auch in der Praxis benutzen.
Echt, ich lese fast nix über AI Programme mit Hardware Support. Photoshop? Keine Ahnung.
Gouvernator
2025-01-28, 05:10:49
Ja das ist schwierig, wenn man Hals über Kopf in AI Tools eintauchen muss. Ich sag mal so, als Vorbereitung sollte man schon wenigstens einmal im Leben in Linux ein Tool kompiliert haben, Retroarch oder so.
Auf die schnelle kann ich als Frontend Fooocus für Image Generierung empfehlen. Und LM Studio für normale LLMs die du direkt laden kannst. Als Hardware musst du nur wissen wieviel VRAM du hast.
Exxtreme
2025-01-28, 10:52:45
DeepSeek ist in der Tat interessant. :freak: Es scheint so als ob es das Ergebnis der US-Sanktionen ist. Nachdem die Chinesen an die Hochleistungs-KI-Hardware nicht rankommen, mussten sie sich was anderes einfallen lassen, was mit viel weniger Hardware auskommt. Und sie erreichen offenbar Ähnliches zu einem Bruchteil der benötigten Hardware. Also quasi idTech anstatt megalahmes UE5. :D Und das dürfte auch der Grund sein warum Nvidia & Co. an der Börse so derbe absemmeln grad.
Man sollte aber trotzdem im Hinterkopf behalten, dass das auch ein potemkinsches Dorf sein könnte. Die Chinesen neigen stark dazu sowas zu machen. Man denke da an den Yuntai-Park-Wasserfall oder einen als Pandabär bemalten Hund. :freak:
GBWolf
2025-01-28, 10:56:28
Ich halte das ganze auch eher für eine Attacke im Wirtschaftskrieg zwischen China und USA. Im Hintergrund entwickelt China wahrscheinlich etwas wie Stargate aber Posaunt es nicht rum. Mit Deepseek sollte lediglich die USA geschädigt werden. Das Timing war ja auch kein Zufall.
BlacKi
2025-01-28, 11:02:38
Man sollte aber trotzdem im Hinterkopf behalten, dass das auch ein potemkinsches Dorf sein könnte. Die Chinesen neigen stark dazu sowas zu machen. Man denke da an den Yuntai-Park-Wasserfall oder einen als Pandabär bemalten Hund. :freak:
inwiefern? du kannst dir die modelle auch auf deiner hw laufen lassen. die sind dann natürlich nicht so gut wie das große, aber vorteile scheints dennoch zu geben gegenüber anderen lokal laufbaren versionen.
ich denke, man versucht aktiv der aktuell amerikanischen KI industrie den wind aus den segeln zu nehmen. scheinbar erfolgreich. ein getarnter wirtschaftskrieg. wir töten die KI ausländische KI industrie und haben dann ein monopol mit dem wird alles machen können was wir wollen, mit einfluss auf alle wichtigen bereiche.
man bedenke, das ist alles komplett subventioniert durch den chinesischen staat und seine vasallen firmen. damit wird kein geld verdient.
DeepSeek ist in der Tat interessant. :freak: Es scheint so als ob es das Ergebnis der US-Sanktionen ist. Nachdem die Chinesen an die Hochleistungs-KI-Hardware nicht rankommen, mussten sie sich was anderes einfallen lassen, was mit viel weniger Hardware auskommt.
https://www.heise.de/news/Deepseek-V3-chinesische-Open-Source-KI-mit-Zensur-10221543.html
Man muß nur mal in die Kommentare schauen. Vermutlich alles nur geklaut? Zaubern können die Chinesen auch nicht. Und genau das ist das Problem bei dem LLMs von denen: Es ist alles sehr intransparent, was da von deren Seite kommt. Ich sag nur mal 5G.
Ich halte das ganze auch eher für eine Attacke im Wirtschaftskrieg zwischen China und USA. Im Hintergrund entwickelt China wahrscheinlich etwas wie Stargate aber Posaunt es nicht rum. Mit Deepseek sollte lediglich die USA geschädigt werden. Das Timing war ja auch kein Zufall.
Das liegt hier so nahe. Das die Börse dann auch so abrutscht, war vermutlich pures Kalkühl, um zu zeigen, daß KI Sanktionen nichts bringen.
Badesalz
2025-01-28, 11:57:01
Mit Deepseek sollte lediglich die USA geschädigt werden. Das Timing war ja auch kein Zufall.Virtuelle Schwachsinnswerte der NV-Aktie kleinwenig runterkommen zu lassen ist keine Schädigung, sondern Heilung :rolleyes:
@blacki
man bedenke, das ist alles komplett subventioniert durch den chinesischen staat und seine vasallen firmen. damit wird kein geld verdient.Verdient OpenAI Geld? Nah einer Pleite scheint China damit nicht zu sein...
Die sagen ja nicht umsonst schon "AGI in Hosentasche".
Wir haben noch lange keine AGI.
Badesalz
2025-01-28, 12:15:12
Mit Deepseek sollte lediglich die USA geschädigt werden. Das Timing war ja auch kein Zufall.Virtuelle Schwachsinnswerte der NV-Aktie kleinwenig runterkommen zu lassen ist keine Schädigung, sondern Heilung :rolleyes:
@blacki
man bedenke, das ist alles komplett subventioniert durch den chinesischen staat und seine vasallen firmen. damit wird kein geld verdient.Verdient OpenAI Geld? Nah einer Pleite scheint China damit nicht zu sein...
Kriegsgeier
2025-01-28, 12:36:18
schon mal daran gedacht, dass Microsoft, Meta und Google das mit DeepSeek eingefädelt haben? Um endlich eine bessere Verhandlungsposition bei NVIDIA zu haben?
So abwegig ist das nicht, oder?
Exxtreme
2025-01-28, 12:41:44
schon mal daran gedacht, dass Microsoft, Meta und Google das mit DeepSeek eingefädelt haben? Um endlich eine bessere Verhandlungsposition bei NVIDIA zu haben?
So abwegig ist das nicht, oder?
Sehr unwahrscheinlich. Denn sie würden viel mehr ein eigenes Deepseek rausbringen denn ein chinesisches.
Kriegsgeier
2025-01-28, 12:43:19
denn, Jensen Huang war auch am 20. Januar nicht im Kapitol bei der Inauguration von Trump. Er war an diesem Tag in China :)
PS: ich könnte mir auch vorstellen, dass Jensen Huang gewisse Technologien an China direkt liefern könnte. Quasi eine Art Schulung für die chinesische GPU-Hersteller.
Denn, Jensen ist wahrscheinlich mehr "chinesisch" als wir alle denken.
Dural
2025-01-28, 14:13:06
Er ist ja Chinese und hat schon mehrfach deutlich gemacht dass er von den Sanktionen nichts hält.
Ich bin seitjeher der Meinung dass sich die USA damit selber ein Bein stellen, aber das müssen sie selber wissen.
Den die Chinesen werden in dem Bereich ihr bestreben einfach nur noch mal intensivieren und verstärken. Man löst damit nur einen Bumerang aus, der zurückkommen wird.
Fusion_Power
2025-01-28, 15:08:58
Ja das ist schwierig, wenn man Hals über Kopf in AI Tools eintauchen muss. Ich sag mal so, als Vorbereitung sollte man schon wenigstens einmal im Leben in Linux ein Tool kompiliert haben, Retroarch oder so.
Auf die schnelle kann ich als Frontend Fooocus für Image Generierung empfehlen. Und LM Studio für normale LLMs die du direkt laden kannst. Als Hardware musst du nur wissen wieviel VRAM du hast.
Hab noch nie im Leben Retroarch kompiliert. :freak: Werd aber mal schauen wegen praktikabler Anwendungen aufm PC. Vielleicht gibts schon guten web-basierten Kram für. Offenbar gibts für mobile schon ne fertige App von Deepseek.
Meine GTX 1050Ti hat übrigens 4GB VRAM, drum denke ich aktuell ehr an Online-Lösungen statt lokale KI Berechnungen. ^^"
DeepSeek ist in der Tat interessant. :freak: Es scheint so als ob es das Ergebnis der US-Sanktionen ist. Nachdem die Chinesen an die Hochleistungs-KI-Hardware nicht rankommen, mussten sie sich was anderes einfallen lassen, was mit viel weniger Hardware auskommt. Und sie erreichen offenbar Ähnliches zu einem Bruchteil der benötigten Hardware. Also quasi idTech anstatt megalahmes UE5. :D Und das dürfte auch der Grund sein warum Nvidia & Co. an der Börse so derbe absemmeln grad.
Verstehe nicht wie Nvidia allein über Nacht nur wegen Deepseek angeblich schon 600 Milliarden (!) Dollar an Börsenwert verloren haben soll. Woarauf basieren diese Werte? Und was wurde da konkret "vernichtet"? Ist dann NVidia "physisch" überhaupt so viel wert? Weil das klingt ehr alles nach willkürlichen Zahlen, die leider zufällig großen Vermögenswerten entsprechen. Kann mir als Laie nicht vorstellen, dass wegen nem kleinen Cpina-Startup ein Riesenkonzern wie Nvidia auch nur irgend wo die Wellen spürt. Außer es ist eh alles nur Spekulation ohne solides Fundament.
schon mal daran gedacht, dass Microsoft, Meta und Google das mit DeepSeek eingefädelt haben? Um endlich eine bessere Verhandlungsposition bei NVIDIA zu haben?
So abwegig ist das nicht, oder?
So schlau sind die wohl ehr nicht. Wer denkt bei sowas schon um 4 Ecken? Und Zusammenarbeit mit China ist auf dem Gebiet ehr kontraproduktiv. Man würde nur Trump anpissen und aktuell will das wohl keiner von denen.
Lehdro
2025-01-28, 15:09:06
Er ist ja Chinese und hat schon mehrfach deutlich gemacht dass er von den Sanktionen nichts hält.
Was halt genau gar nichts sagt. Keiner von denen (Halbleiterhersteller/Entwickler) mag es wenn man ihnen bestimmte Verkäufe erschwert oder gar verbietet. Weniger Käufer = schlecht für das Geschäft. Er wäre ein schlechter CEO wenn er das nicht kritisieren würde. Auf der Softwareseite hingegen...
Gouvernator
2025-01-28, 15:48:20
Hab noch nie im Leben Retroarch kompiliert. :freak: Werd aber mal schauen wegen praktikabler Anwendungen aufm PC. Vielleicht gibts schon guten web-basierten Kram für. Offenbar gibts für mobile schon ne fertige App von Deepseek.
Meine GTX 1050Ti hat übrigens 4GB VRAM, drum denke ich aktuell ehr an Online-Lösungen statt lokale KI Berechnungen. ^^"
4GB reicht auch. Ich experimentiere gerade am Legion Go mit Qwen 1.5B R1. Das braucht je nach Quantisierung nur 1Gb-3Gb. Im Grunde labert er mit sich selbst so wie die größeren Modelle, manchmal sogar mehr , weil ihm das Wissen fehlt und dadurch muss er stärker denken.
Verstehe nicht wie Nvidia allein über Nacht nur wegen Deepseek angeblich schon 600 Milliarden (!) Dollar an Börsenwert verloren haben soll. Woarauf basieren diese Werte? Und was wurde da konkret "vernichtet"? Ist dann NVidia "physisch" überhaupt so viel wert? Weil das klingt ehr alles nach willkürlichen Zahlen, die leider zufällig großen Vermögenswerten entsprechen. Kann mir als Laie nicht vorstellen, dass wegen nem kleinen Cpina-Startup ein Riesenkonzern wie Nvidia auch nur irgend wo die Wellen spürt. Außer es ist eh alles nur Spekulation ohne solides Fundament.
Vereinfacht und stark simplifiziert erklärt. Es ist ein künstlicher Wert (Marktkapitalisierung), der dann relevant ist, wenn Du z.B. Investitionen, Kredite oder Akquirierungen machen möchtest, um Dich möglichst in eine gute Position zu bringen. Er ist auch wichtig, damit Du nicht per feindliche Übernahme einfach mal so aufgekauft werden kannst oder sich jemand per Aktienkauf stimmrechtlich in Schlaghöhe bringt (bei stimmbereichtigten Aktien)
Ganz einfach, je hübscher und wertvoller der Mann (oder die Frau) gekleidet ist, umso bessere Partie springt dann raus. Es ist ein "Spielwert" auf dem internationalen Markt. Solange Du mit den oben genannte Punkten nichts machst, ist der Wert relativ irrelevant, außer Du willst Deine Aktien verkaufen.
konkretor
2025-01-28, 18:27:45
Etwas Stoff zum Deepseek und was es bedeutet
https://www.golem.de/news/deepseek-der-sputnik-der-ki-branche-2501-192813.html
Ich sehe das etwa aso wenn weniger Hardware gebraucht wird, geht die Verbreitung schneller. Also Nvidia gewinnt so oder so
Fusion_Power
2025-01-28, 18:34:39
Vereinfacht und stark simplifiziert erklärt. Es ist ein künstlicher Wert (Marktkapitalisierung), der dann relevant ist, wenn Du z.B. Investitionen, Kredite oder Akquirierungen machen möchtest, um Dich möglichst in eine gute Position zu bringen. Er ist auch wichtig, damit Du nicht per feindliche Übernahme einfach mal so aufgekauft werden kannst oder sich jemand per Aktienkauf stimmrechtlich in Schlaghöhe bringt (bei stimmbereichtigten Aktien)
Ganz einfach, je hübscher und wertvoller der Mann (oder die Frau) gekleidet ist, umso bessere Partie springt dann raus. Es ist ein "Spielwert" auf dem internationalen Markt. Solange Du mit den oben genannte Punkten nichts machst, ist der Wert relativ irrelevant, außer Du willst Deine Aktien verkaufen.
Also mit anderen Worten: das verlorene Geld hat praktisch nie existiert. :freak:
Wo du dieses Reasoning mit Qwen/Llama an jedem SteamDeck nutzen kannst.
Nein - die Distillationen machen kein Reasoning.
Rooter
2025-01-28, 20:35:01
Kann man DeepMind nicht reverse-engineeren um zu schauen, wie die Chinesen das angestellt haben? Die klauen ja auch dauernd Ideen von der westlichen Welt.
Den die Chinesen werden in dem Bereich ihr bestreben einfach nur noch mal intensivieren und verstärken.Aber ohne starke Hardware werden sie das nicht aufholen können. Sie können sicherlich eine sparsame KI entwickeln, aber den jahrzehntelangen Vorsprung von ASML bei EUV werden sie nicht mal eben in ein paar Jahren aufholen können.
Also mit anderen Worten: das verlorene Geld hat praktisch nie existiert. :freak:Das ist im Kapitalmarkt gar nicht selten. X-D
MfG
Rooter
Badesalz
2025-01-28, 20:41:57
Also mit anderen Worten: das verlorene Geld hat praktisch nie existiert. :freak:Bingo. Außer du hattest letzte Woche vorgehabt deine NV-Aktien zu verkaufen und hast dich doch anders entschieden ;)
Gouvernator
2025-01-28, 21:45:52
Nein - die Distillationen machen kein Reasoning.
Hast du das selbst schon wenigstens probiert?
Rooter
2025-01-28, 21:51:12
Außer du hattest letzte Woche vorgehabt deine NV-Aktien zu verkaufen und hast dich doch anders entschieden ;)Warum sollte man die verkaufen? Schauen wir doch im einem Jahr nochmal nach. :smile:
MfG
Rooter
Gouvernator
2025-01-28, 21:53:25
Habe nun alle R1 Distill Modelle von 1.5B bis 32B unterschiedlichster Quantisierung ausprobiert. Um zu sehen welches von denen mein Prompt der Timer-App am sinnvollsten verdauen kann.
So richtig Spaß machts es mit keinem, runter ab 32B-4_1 Quant (22Gb VRam). Habe mit QwQ/ SkyT1-32B-Preview die App tatsächlich aus dem Stand gebaut. Und dann nur noch kleinere Bugs absolut selbstsicher ausgemerzt.
Alles andere ist gefühlt wie ein Student der keine Ahnung hat, oder als Schüler mit dem 1.5B Modell.
konkretor
2025-01-28, 22:00:19
Kann man DeepMind nicht reverse-engineeren um zu schauen, wie die Chinesen das angestellt haben? Die klauen ja auch dauernd Ideen von der westlichen Welt.
MfG
Rooter
Also zumindest die Methodik ist nachvollziehbar unklar bleibt der verwendete Datensatz
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
Hier in dem Repo wird das versucht nachzubauen
https://github.com/huggingface/open-r1
Edit: Heute hat Alibaba noch diese LLM abgeworfen
https://qwenlm.github.io/blog/qwen2.5-max/
BlacKi
2025-01-28, 23:02:35
Verdient OpenAI Geld? Nah einer Pleite scheint China damit nicht zu sein...einkommen ja. und das einkommen soll irgendwann nicht nur die kosten decken, sondern gewinne abwerfen. und es ist ok für china, das es erst geld verdienen kann, wenn alle anderen tot sind.
Gouvernator
2025-01-29, 00:06:52
DeepSeek R1 QwQ/ SkyT1-32B-Preview-4_1 mit 22GB scheint wohl auch ziemlich das Einzige zu sein was man tatsächlich sinnvoll und mit Spaß nutzen kann. Viel mehr kann man da mit normaler Hardware nicht auspressen. Llama 70B scheint gegenüber 32B Qwen 2.5-Preview ziemlicher Müll zu sein.
Und einen besseren Qwen gibt es nicht als Distill. Es gibt höchstens nur noch Original DeepSeek R1 was man mit 2 NV Digits zum laufen bekommt. Man kann nun entspannt auf gute AI Hardware warten und Tee trinken. Die beste lokale AI passt ins 24Gb Vram und danach kommt laaaaange nichts was interessant wäre.
Badesalz
2025-01-29, 07:54:53
@Gouvernator
Wahrscheinlich - oder hoffentlich ;) - bin ich der einzige der fast schockiert ist, daß du eine Kompetenz besitzt :tongue: Im Rahmen dessen aber wäre das aber auch ne goile Geschichte, wenn du ab und zu auch beschreiben könntest warum du dies und jenes meinst.
Ich als nur grob interessierter wüsste ich grob schon gerne warum z.B. "Llama 70B scheint gegenüber 32B Qwen 2.5-Preview ziemlicher Müll zu sein."
usw. usw. Was sind Distills? Was sind Qwens? :up:
Gouvernator
2025-01-29, 09:08:29
Das alles ist eigentlich recht simple zu verstehen. Ich gehe ja davon aus das bei jedem LM Studio läuft. Dort kannst du jede LLM fein säuberlich nach Veröffentlichung sortieren und direkt wie eine .iso runterladen. Und sofort ausprobieren in dem du ihr abgespeicherte Prompts fütterst.
Qwen Distill, Llama Distill sind von DeepSeek mit Reasoning (R1) angereicherte LLM Modelle. Die sich dann durch Zahl der Parameter unterscheiden. Qwen Modelle haben 1.5B,7B,14B,32B. Llama 8B und 70B. Andere Leute mit Zugang zu Profi-GPU trainieren nochmals fine-tuned Models aller dieser Versionen mit R1.
Ich hab schon an die 2Tb von denen gesammelt. Und kann mit meinen Prompts schnell erkennen was ein Modell mir bietet. Manche sind je nach fine-tune sofort aus dem Stand wow.
readonly
2025-01-29, 09:17:03
Grundsätzlich finde ich die Idee interessant, aber ist mir zu aufwändig die einzelnen Modelle zu installieren und testen. Switche nur zwischen, GEMINI, Gpt und jetzt auch Deepseek rum, falls die Antwort doof war. Mach da aber auch nur so alltägliche Basics und nutze das als Tool für Forendiskussionen ;D Man kann da schön schnell Szenarien erfassen die sonst viel Recherche benötigen würden. Auch wenn die Antwort sicher nicht immer richtig ist, Details die offensichtlich nicht passen kann man ja anmerken. Die Systeme ändern dann ja die Berechnung.
Was kann ich da noch für einen Benefit draus ziehen, mir ein kleines Modell lokal zu installieren.
Und mein neuer DJ Laptop mit 4060 hat jetzt so ein Ryzen mit NPU Funktion, was bringt die? Die Grafikkarte ist doch eh viel schneller, selbst die integrierte vom Ryzen. Scheint mir eine der überflüssigen Neuerungen in Windows zu sein.
Was kann ich da noch für einen Benefit draus ziehen, mir ein kleines Modell lokal zu installieren.
Datenschutz (lokale RAG-Systeme), Sicherheit
für meinen täglichen Einsatz nehme ich ChatGPT (kostenlos)
Für meine Experimente habe ich nen API-Zugang zu OpenAI
Blöd, dass man beides zahlen soll
Gouvernator
2025-01-29, 17:12:07
Das Modell welche meine Timer-App geschrieben hat scheint richtig gut zu sein. Die haben speziellen merge mit einem speziellen fine-tune des Qwen 32B Modells gemacht. Das Resultat fast die Performance von o-1. Crazy.
Long-Long Reasoning Merging: This approach involves model fusion across LLMs that utilize long-CoT reasoning, with the goal of enhancing long-CoT reasoning capabilities. The resulted FuseAI/FuseO1-DeepSeekR1-QwQ-SkyT1-32B-Preview achieves a Pass@1 accuracy of 74.0 on AIME24, demonstrating significant performance improvements compared to the OpenAI o1-preview (44.6) and OpenAI o1-mini (63.4), even approaching OpenAI o1 (79.2).
https://huggingface.co/FuseAI/FuseO1-DeepSeekR1-QwQ-SkyT1-32B-Preview
Gouvernator
2025-01-30, 00:09:31
Steamdeck schafft Qwen 7B R1 noch mit 3 t\s.
DarkSoldier
2025-01-30, 07:33:22
Habe 7b Qwen und 8b Llama getestet - (mehr packt mein MacBook Air nicht)
Aber das ist beides sehr mau und eigentlich nicht zu gebrauchen hen.
Selbst triviale Anfragen werden mit kruden Formulierungen und Rechtschreibfehlern beantwortet.
Aber trotzdem interessant, dass das inzwischen möglich ist.
Gouvernator
2025-01-30, 09:06:29
Habe 7b Qwen und 8b Llama getestet - (mehr packt mein MacBook Air nicht)
Aber das ist beides sehr mau und eigentlich nicht zu gebrauchen hen.
Selbst triviale Anfragen werden mit kruden Formulierungen und Rechtschreibfehlern beantwortet.
Aber trotzdem interessant, dass das inzwischen möglich ist.
In Deutsch? Ja das ist mir bekannt. Da fängt der Spass er bei 14B an, besser 30B.
Aber in nativ Englisch produziert selbst Distill Qwen R1 1.5B feinste Logik und Sprache.
Badesalz
2025-01-30, 11:31:54
Was ist denn mit DeepSeek V3?
Und was mit Alibaba Qwen2.5-Max, was noch Stückchen über V3 sein soll??? :freak:
Rooter
2025-01-30, 19:10:09
Mehr als 5,5 Millionen USD: Was die Entwicklung von DeepSeek tatsächlich gekostet hat (https://www.computerbase.de/news/apps/mehr-als-5-5-millionen-us-dollar-was-die-entwicklung-von-deepseek-tatsaechlich-gekostet-hat.91217/)
X-D
MfG
Rooter
Breegalad
2025-01-31, 11:52:11
Ich bin erstaunt, wie wenig Resonanz die aktuelle Entwicklung der KI hier findet.
Sie wird auf YT bereits mit der Kambrischen Explosion verglichen.
Meine Wenigkeit glaubt, dass sie das Potential hat, unsere bisherige Zeitrechung zu ersetzen.
Das braucht es auch, um mich von meinen Retro-PCs wegzulocken.
zu den Kosten:
Im Paper zur Veröffentlichung von R1 wird bereits erwähnt, dass die Kosten der Vorarbeit nicht in diesen 5.6M$ enthalten sind.
Wichtiger als die Kosten ist die Veröffentlichung als Open Source.
Erwartungsgemäß vollziehen jetzt andere die Entwicklung nach:
DeepSeek R1 Replicated for $30
E_h8xt0X1Kg
Auf diesem Kanal gibt es auch zwei sehenswerte Videos zum Thema Täuschungsversuche und Selbstreplikation von KI im Testlabor der Apollo Labs.
In anderen seiner Videos redet er mir zu viel, aber in diesen drei passt die Form zum Inhalt.
Witzigerweise haben viele LLMs incl. R1 Probleme damit, die Rs in 'strawberry' zu zählen.
Und multimodale LLMs können nur schlecht Schmetterlinge zeichnen.
Das teste ich gelegentlich mal mit Janus.
R1 produziert verblüffend guten Python-Code, der oft im ersten Anlauf funktioniert.
Aber ich habe es nicht geschafft, ein Programm für den C64 in Commodore Basic v2 zu erzeugen. Die Syntax scheint R1 nahezu völlig unbekannt zu sein.
ein yt-Kanal mit besonders interessanten Tests:
liESRDW7RrE
R1 analysiert Byte-Dumps von Wireshark
TciLnWFM-bY
Metzler
2025-01-31, 12:25:48
Ich bin erstaunt, wie wenig Resonanz die aktuelle Entwicklung der KI hier findet.
Sie wird auf YT bereits mit der Kambrischen Explosion verglichen.
Meine Wenigkeit glaubt, dass sie das Potential hat, unsere bisherige Zeitrechung zu ersetzen.
Naja, Youtuber halt. Viele sind nur clickbait. Zum Glück gibt es ein paar, die das tatsächlich kritischer betrachten.
Ich mein, inzwischen sind 2+ Jahre seit der Veröffentlichung von GPT3.5 vergangen und bald 8 Jahre seit "Attention is all you need" Transformer Paper von Google.
Wie groß die tatsächliche Durchdringung von LLMs ist, kann ich nicht sagen, aber bis auf einige Edge-Cases nutze ich sie wenig (weil ich am Ende meist mehr in den Prompt reinstecke nur um immer noch mittelmäßige Resultate zu bekommen) als dass es wirklich hilft.
Genau so Tatsachen wie die von Dir genannten Beispiele die eben nicht funktionieren sind beste Beispiele dafür dass bis auf ein primäres Widerkauen von Gelerntem es keine echte Intelligenz bisher ist. Und es weiß halt keiner, wie man da wirklich hinkommt, auch wenn Leute wie Altman ständig was anderes behaupten.
Ich glaube, hier hat einfach eine gewisse Ermüdung bzgl. dem Hype eingesetzt. Es gibt ein paar Anwendungsgebiete (insbesondere im Customer Support und stupide Routine Aufgaben, ich hab es zum Übungsaufgaben generieren für meine Kinder in Deutsch eingesetzt...), wobei selbst da immer noch das Thema mit der Verlässlichkeit ist. Und wenn das gelöst sein sollte, gibt es ja jetzt schon ein Scaling / Energie Problem. Und dann vermutlich noch viele weitere...
Es ist ein Tool für gewisse Einsatzzwecke. Die Killeranwendung fehlt mir aber immer noch. Ein paar Sachen wie NotebookLM finde ich z.B. schon interessant und hilfreich, aber auch das ist eher eine Niesche bisher für mich. Ich brauche nicht noch mehr Fakebilder oder unverlässliche Ausgaben oder...
Wie groß die tatsächliche Durchdringung von LLMs ist, kann ich nicht sagen, aber bis auf einige Edge-Cases nutze ich sie wenig (weil ich am Ende meist mehr in den Prompt reinstecke nur um immer noch mittelmäßige Resultate zu bekommen) als dass es wirklich hilft.
Die neuen "Thinking" LLMs wie R1, o1 und Gemini Thinking sind da etwas besser, sie bemerken Widersprüche und reagieren darauf.
Aber am Ende ist es auch eine Lernkurve in der Verwendung/Interaktion mit LLMs. Die Realität ist heute sicher, dass ein LLM selten Tätigkeiten zu 100% abnehmen kann, für die man selbst ein/der Experte ist. Aber selbst da kann es mit etwas Glück und Können hilfreich sein. Besser geeignet sind aber Aufgaben die nicht in 100% Übernehmen und nicht auf das eigene Expertenfeld fallen.
readonly
2025-01-31, 13:17:21
Es ist ein Tool, kann man nutzen, oder eben nicht. Hab z.B. meinen Rom Besuch damit geplant. Sehenswürdigkeiten, Reihefolge, Eisdielen in der Nähe der Sehenswürdigkeiten, was es zu beachten gibt und wie man am besten dahin kommt. 10 Minuten war die Sache durch und vor Ort tatsächlich brauchbar.
Mal ein kleine Python Script oder ne Automation in Home Assistant. Oder einen eckigen Text umformulieren lassen, ein MRT Befund für Laien übersetzen. In Fällen, wo man Hard Facts braucht, ist es nur bedingt und mit viel Kontrolle einsetzbar. Aber da erwarte ich die nächste Zeit deutliche Besserungen.
Abseits der LLMs wird es ja ebenfalls immer mehr eingesetzt. Bestes Beispiel DLSS oder mal eben auf dem Handy ein Objekt aus einem Bild löschen. Hey, wer hätte 1985 davon nicht geträumt. Wird wohl auch bleiben und ersetzt bei mir oft die Suche in Google. Einfach mit dem Hinweis, dass man die Quelle mit aufführen soll und man kann selbst gucken was er so draus gezaubert hat. Google ist so schlecht geworden, das ist kaum mehr benutzbar.
Breegalad
2025-01-31, 13:47:17
Google Suche verbessern, z.B. um die Amazon-eigene Suche zu umgehen
C-2YMhMu5Lc
noch zwei Videos der nachdenklich machenden Sorte:
lY8Ja00PCQM
wobei Emad Mostaque durchaus in der Kritik steht.
6D4rsqxqSIc
(hätte die Videos gerne kleiner skaliert, aber keine Möglichkeit gefunden)
Nachtrag:
Die Online-Version von DeepSeek hat nach mehreren Korrekturen ein lauffähiges C64-Programm ausgespuckt.
Es ist eine Demonstration des Quicksort mit Ausgabe in Zeichensatzgrafik.
Nachdem ich mich bedankt hatte, kam noch folgende Schlussbemerkung:
You're welcome! Glad we finally got it working smoothly. Enjoy watching the quicksort algorithm come to life on your Commodore 64! Those last few fixes were crucial for:
1. **Variable naming** (`pi` → `px`) to avoid conflicts
2. **Cursor positioning** logic to prevent screen artifacts
3. **Array bounds validation** for edge cases
4. **Stack overflow protection** during recursion
The final version balances C64 BASIC's limitations with clear visual feedback. Thanks for your patience through the debugging process – retro programming always has these delightful quirks! ️✨
Ganz stark!
Metzler
2025-01-31, 14:07:57
Es ist ein Tool, kann man nutzen, oder eben nicht. Hab z.B. meinen Rom Besuch damit geplant. Sehenswürdigkeiten, Reihefolge, Eisdielen in der Nähe der Sehenswürdigkeiten, was es zu beachten gibt und wie man am besten dahin kommt. 10 Minuten war die Sache durch und vor Ort tatsächlich brauchbar.
Mal ein kleine Python Script oder ne Automation in Home Assistant. Oder einen eckigen Text umformulieren lassen, ein MRT Befund für Laien übersetzen. In Fällen, wo man Hard Facts braucht, ist es nur bedingt und mit viel Kontrolle einsetzbar. Aber da erwarte ich die nächste Zeit deutliche Besserungen.
Abseits der LLMs wird es ja ebenfalls immer mehr eingesetzt. Bestes Beispiel DLSS oder mal eben auf dem Handy ein Objekt aus einem Bild löschen. Hey, wer hätte 1985 davon nicht geträumt. Wird wohl auch bleiben und ersetzt bei mir oft die Suche in Google. Einfach mit dem Hinweis, dass man die Quelle mit aufführen soll und man kann selbst gucken was er so draus gezaubert hat. Google ist so schlecht geworden, das ist kaum mehr benutzbar.
Fair, einige der Sachen nutze ich auch LLMs. Ist jetzt aber nichts, wo ich sage, das würde ohne gar nicht gehen oder nur wesentlich langsamer (zumindest die meisten Sachen). Was ich manchmal mache, ist irgendein rechtliches Dokument mal durch Notebook LM oder Gemini analysieren zu lassen. Oder kürzlich habe ich auch mal Google Fotos Magic Eraser genutzt.
Wie gesagt: Ist ein Tool, aber nicht die Killer-App.
Warum die Google Suche schlecht sein soll, ist mir jedoch nicht klar - funktioniert hier wunderbar und sehr häufig besser als sämtliche LLMs die ich nutze. Und ja, natürlich gibt es manchmal Sachverhalte, für die ich ein LLM nutze, aber das ist sehr sehr weit weg bei mir, Google zu ersetzen.
ChaosTM
2025-01-31, 17:53:17
vxkBE23zDmQ
Geoffrey Hinton* glaubt, dass KI`s bereits ne Art "Bewusstsein" entwickelt haben
*"Godfather" of AI
Lurtz
2025-01-31, 18:32:42
War das der gleiche Typ, der vorhergesagt hat, dass Radiologen heute bereits arbeitslos sein sollten?
https://newrepublic.com/article/187203/ai-radiology-geoffrey-hinton-nobel-prediction
urpils
2025-01-31, 21:44:30
Ich bin erstaunt, wie wenig Resonanz die aktuelle Entwicklung der KI hier findet.
(...)
ganz im Ernst. Das ist ein Hype wie NFTs, Blockchain und was weiß ich... man erhofft sich da irgendwelche großartigen Dinge - und da sie vordergründig interessante Kunststückchen zeigen können, glaubt man gern dran, weil man hofft damit irgendwie Geld zu verdienen.
Man kann dem Krempel nichts anvertrauen, was irgendwie von Bedeutung ist... für ein bisschen rumspielen ist es nett - aber echten Mehrwert bietet das aktuell wohl den Wenigsten und langfristig seh ich da auch nicht viel, wenn man schaut, wie wenig sich in den letzten 2 Jahren getan hat.
Gouvernator
2025-02-03, 02:01:07
https://youtu.be/q5kpr84uyzc?si=xk0sXB0_Ix2sP8i7
Vollständiger Guide für lokale Bildgeneration+Video auf dem neusten technischen Stand.
Vielleicht nützlich für den Wahlkampf.
Mortalvision
2025-02-05, 02:07:03
Mit dem reasoning model von Chat GPT erstellteshttps://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91350&stc=1&d=1738717694 Bild von Albert Einstein:
,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
,///////////////////////////////////////////,
,///// .-""""""""""""-. \\\,
,///// / O O \ \\\,
,///// | /\ | \\\,
|///// | .-` `---'-. | \\\|
|///// | ( \___/ ) | \\\|
,///// \ '-._____.-' / \\\,
,///// '-.___________.-' / \\\,
'///////////////////////////////'
''''''''''''''''''''''''''
Gouvernator
2025-02-05, 16:32:19
https://www.youtube.com/watch?v=fUooRSZLxpA
Background Removal aus Fotos/Videos.
Wow, ist das schnell und handlich. Wie lang braucht man sonst pro Foto in Photoshop ca. 10 min. oder so? Hier 1 Sekunde.
Rooter
2025-02-05, 18:50:42
Musst ASCII-Art in -Tags packen, damit es korrekt angezeigt wird. ;)
[CODE] ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
,///////////////////////////////////////////,
,///// .-""""""""""""-. \\\,
,///// / O O \ \\\,
,///// | /\ | \\\,
|///// | .-` `---'-. | \\\|
|///// | ( \___/ ) | \\\|
,///// \ '-._____.-' / \\\,
,///// '-.___________.-' / \\\,
'///////////////////////////////'
''''''''''''''''''''''''''
MfG
Rooter
Metzler
2025-02-06, 20:21:43
Ich sehe mit viel gutem Willen ein Gesicht. Was hat das mit Einstein zu tun?
Badesalz
2025-02-06, 21:44:35
Sieht eher aus wie Trump...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.