Archiv verlassen und diese Seite im Standarddesign anzeigen : Künstliche Intelligenz - Das nächste dicke Ding?
Die erste Empfehlung bei LLMs wenn "Aufgabe anders formulieren" nicht weiterhilft: 1-1000 Beispiele für erfolgreiche Bearbeitung der Aufgabe mit in den Prompt aufnehmen. Beispiele 1-10 bringen am meisten, aber 100 sind besser.
Wenn Dokumentation zu APIs existiert: in den Prompt kopieren.
Allgemein betrachtet finde ich es aber eine produktivere Perspektive nach Aufgaben zu suchen, die LLMs auch ohne Hilfe gut hinbekommen.
Was viele scheinbar nicht verstehen: Prompting ist keine Wissenschaft, sondern einfach nur ordentliches Kommunizieren. Man muss sehr genau kommunizieren können, was man will. Die KI versteht schon sehr vieles, selbst Gebabbel oder Rechtschreibfehler, aber am Ende kommt es immer darauf an, wie gut man sich ausdrücken kann.
Badesalz
2024-05-24, 13:07:01
Da blubbert mittlerweile aber ganz schön was raus wegen der Implosion von OpenAI...
Metzler
2024-05-24, 13:54:27
Da blubbert mittlerweile aber ganz schön was raus wegen der Implosion von OpenAI...
Was meinst Du genau?
Exxtreme
2024-05-24, 14:05:58
Was meinst Du genau?
https://www.golem.de/news/non-disclosure-agreement-openai-irritiert-mit-umstrittener-geheimhaltungsregelung-2405-185403.html
https://www.businessinsider.de/wirtschaft/international-business/weitere-kuendigung-openai-mitarbeiterin-geht-wegen-sicherheitsbedenken/
Da geht es grad echt ab bei denen. Sie sind wohl zu gierig geworden.
Skysnake
2024-05-24, 14:06:02
Also ich bekomme von den LLMs eigentlich nur unverkennbaren Müll den ich in besserer Qualität innerhalb kurzer Zeit selbst finde.
Mich interessieren aber auch keine 0815 Fragestellungen die schon drölfmillionen mal gelöst wurden.
Metzler
2024-05-24, 14:20:22
https://www.golem.de/news/non-disclosure-agreement-openai-irritiert-mit-umstrittener-geheimhaltungsregelung-2405-185403.html
https://www.businessinsider.de/wirtschaft/international-business/weitere-kuendigung-openai-mitarbeiterin-geht-wegen-sicherheitsbedenken/
Da geht es grad echt ab bei denen. Sie sind wohl zu gierig geworden.
Achso das. Ja. Ist halt ein Microsoft Unternehmen...
Actionhank
2024-05-24, 15:03:23
Was viele scheinbar nicht verstehen: Prompting ist keine Wissenschaft, sondern einfach nur ordentliches Kommunizieren. Man muss sehr genau kommunizieren können, was man will. Die KI versteht schon sehr vieles, selbst Gebabbel oder Rechtschreibfehler, aber am Ende kommt es immer darauf an, wie gut man sich ausdrücken kann.
So allgemein ist das Quatsch.
Exxtreme
2024-05-24, 15:19:59
Also ich bekomme von den LLMs eigentlich nur unverkennbaren Müll den ich in besserer Qualität innerhalb kurzer Zeit selbst finde.
Mich interessieren aber auch keine 0815 Fragestellungen die schon drölfmillionen mal gelöst wurden.
Es ist so: LLMs bzw. allgemein die jetzige AI ist toll wenn man Abermillionen plausibel erscheinender Ergebnisse haben will. Deshalb sind die Dinger so gut wenn es darum geht Stock-Bilder etc. zu generieren. Man gibt eine ziemlich vage Beschreibung was man haben will und die AI generiert entsprechende Bilder. Und ob die Blüten der Pflanzen auf dem Bild jetzt rot oder orange sind, das ist wayne wenn das Ergebnis an sich akzeptabel ist.
Anders sieht es aus wenn es z.B. darum geht ein Flugzeug zu landen. Hier hat man nicht die Wahl zwischen Abermillionen plausibel erscheinender Ergebnisse. Hier gibt es ein einziges korrektes Ergebnis, welches akzeptabel ist. Da alles andere in einer Katastrophe endet. Und bei sowas versagen die LLMs sehr sehr oft. Und bis man sie dazu gebracht hat das zu tun, was man will, hat man das schneller selber gemacht.
Sprich, ist man auf exakte/korrekte Ergebnisse angewiesen dann sollte man LLMs nicht überschätzen. Dann können sie als Produktivitätsbooster fungieren, mehr aber auch nicht.
So allgemein ist das Quatsch.
Nee, das ist keineswegs Quatsch. Es handelt sich um ein Sprachmodell, das darauf optimiert ist. Sprache ist das A und O. Du wirst den größten Erfolg haben, wenn du dich korrekt und detailliert ausdrückst. Die KI wird dir das auch direkt sagen, wenn du nach Tipps fragst, wie du bessere Bilder generieren kannst. Details und eine gute Erklärung dessen, was du möchtest, sind das A und O.
Badesalz
2024-05-24, 21:54:39
Da geht es grad echt ab bei denen. Sie sind wohl zu gierig geworden.Altman hat imho Dreck am stecken und wurde wohl - aus mind. der ethischen Sicht auf die Dinge - zurecht rausgeworfen.
Die Folge der Wiedereinstellung ist nun der Abgang von Jan Leike. Und paar seltsame Tweets dazu...
Davor schon ist der eigentliche Architekt, Sutskever, gegangen. Der an der Entlassung Altmans mitgedreht hat. Der ist ethisch eben recht unflexibel.
Für mich tut sich da irgendwie eine Sinkgrube auf :udown: Das ist natürlich ganz toll jetzt, in einer Butze die anscheinend die bisher mächtigste KI entwickelt. Die sind nun was Ethik wie auch Sicherheit angeht komplett blank :uup:
ChaosTM
2024-05-24, 21:59:43
Da tun sich viele Sinkgruben der Uninformiertheit auf.
Sutskever und Altman wurden schon lange von der Konkurrenz aufgesogen..
Metzler
2024-05-26, 20:30:33
Hier eine schöne aktuelle Studie darüber inwiefern ChatGPT wirklich Stackoverflow ersetzt - oder eben auch nicht:
https://dl.acm.org/doi/pdf/10.1145/3613904.3642596
Und hier die Zusammenfassung: https://www.golem.de/news/ki-im-kreuzfeuer-der-kritik-massive-qualitaetsmaengel-bei-chatgpt-als-programmierhilfe-2405-185442.html
Schönes Zitat aus der Studie:
Surprisingly, our user study shows that participants preferred ChatGPT answers 34.82% of the time, though 77.27% of these answers
contained misinformation. Furthermore, we observed that participants overlooked a lot of misinformation in ChatGPT answers.
Specifically, when ChatGPT answers are not readily verifiable (e.g.,
requiring execution in an IDE or needing to go through long documentation to validate), users often fail to identify the misinformation and underestimate the degree of incorrectness in the answer.
Hence, for this study, we used the free version (GPT-3.5) so that the results benefit the majority of our target populations. We acknowledge that other LLMs can perform differently and we encourage future research to empirically study programming answers generated by other LLMs.
https://ar5iv.labs.arxiv.org/html/2308.02312v4
Die haben also das alte ChatGPT3.5 getestet. Toll. GPT4, is bereits meilenweit voraus und von Turbo und gpt4o reden wir da noch gar nicht. Copilot nutzt 4 und turbo und da kannste die Aussagen direkt prüfen anhand der Links, wobei ich da inzwischen Vertrauen hab, nachdem ich das oftmals geprüft hab..
Die Studie ist nicht mehr wirklich aussagekräftig, weil 3.5 bereits alt und obsolet ist. Das nutzt eh keiner mehr und da kannste auch nix nachprüfen.
SuperHoschi
2024-05-26, 21:54:39
Wann kommt denn jetzt GPT4o bei uns?
Ist schon da. Kannste bei ChatGPT nutzen mit Limit. Irgenwann bekommste gesagt, dass Limit erreicht du musst weiter das olle 3.5 nutzen. Ich nutze GPT4o daher nur wenn ich weiß es ist da allen anderen voraus und ich will schnell ne genaue Auskunft erhalten. Also zum Beispiel Bilder und Inhalte derer identifizieren und Auskunft dazu geben oder schnell nen PDF analysieren.
Wird sicher auch über Kurz oder lang in Kürze bei Copilot kommen. Davon gehe ich aus.
Virtuo
2024-05-26, 22:12:04
Ich bin mir nicht sicher wer hier halluziniert! :confused:
Bw7eHGRg8zA
SuperHoschi
2024-05-26, 22:28:31
Also die iPhone App ist nur GPT4.
Im Browser auch.
Nix mit 4o
Also die iPhone App ist nur GPT4.
Im Browser auch.
Nix mit 4o
https://i.ibb.co/52NFKgK/2024-05-26-22-44-40.png
Im Browser kann ich es auswählen und ist auch Standard aktiv. Vielleicht bei dir noch nicht. Sie wollen das ja langsam in Welle machen.
So sieht es aus wenn man GPT-4o hat.
Metzler
2024-05-27, 07:33:55
https://ar5iv.labs.arxiv.org/html/2308.02312v4
Die haben also das alte ChatGPT3.5 getestet. Toll. GPT4, is bereits meilenweit voraus und von Turbo und gpt4o reden wir da noch gar nicht. Copilot nutzt 4 und turbo und da kannste die Aussagen direkt prüfen anhand der Links, wobei ich da inzwischen Vertrauen hab, nachdem ich das oftmals geprüft hab..
Die Studie ist nicht mehr wirklich aussagekräftig, weil 3.5 bereits alt und obsolet ist. Das nutzt eh keiner mehr und da kannste auch nix nachprüfen.
Persönliche Meinung: GPT4 macht die Studie nicht irrelevant. Ja, GPT4 ist an ein paar Stellen etwas besser, aber die Grundaussage der Studie bleibt dennoch korrekt.
Persönliche Meinung: GPT4 macht die Studie nicht irrelevant. Ja, GPT4 ist an ein paar Stellen etwas besser, aber die Grundaussage der Studie bleibt dennoch korrekt.
Was ist die Grundaussage der Studie? "Wenn man Fragen stellt, bekommt man (auch) falsche Antworten?" - das ist auf jeden Fall eine zutreffende Aussage.
Ich sehe beim Überfliegen der Studie keine Bewertung der Korrektheit der Stackoverflow-Antworten. Mir ist methodisch nicht klar wie man dann die Korrektheit von ChatGPT mit Stackoverflow vergleichen kann.
Exxtreme
2024-05-27, 09:03:51
Was ist die Grundaussage der Studie? "Wenn man Fragen stellt, bekommt man (auch) falsche Antworten?" - das ist auf jeden Fall eine zutreffende Aussage.
Nur ist die Wahrscheinlichkeit, dass man eine falsche Antwort bekommt, sehr hoch. Das ist die Aussage der Studie.
Gouvernator
2024-05-27, 10:25:59
Ich bin mir nicht sicher wer hier halluziniert! :confused:
https://youtu.be/Bw7eHGRg8zA
Es besteht grundsätzlich das Problem, eine AI möglichst menschlich zu erschaffen, ohne wirklich zu wissen was Mensch eigentlich ist. Lustigerweise kommt dann am Ende raus, das Mensch eine wandelnde Holo-Kamera mit einem eingebauten Holo-Deck ist. Geschaffen um aus gewissen Sinnes-Eindrücken virtuelle prozedurale Welten zu erschaffen.
Deine Augen sind Kameras. Dein Gehirn ist Bildbearbeitung. Dein Herz Gefühlssimulator. Wenn du Nachts schläfst, wird ein Traum generiert und bereitgestellt. Im christlichen Glauben kommuniziert Gott eigentlich nur über Träume. Per se ist ein Mensch dazu gedacht ein "Tempel" zu sein. In dem eine generative AI-Du eine Umgebung für die andere AI-Gott als Holodeck bereitstellt. Und dann wundern sich Wissenschaftler das sich ihre AI plötzlich eine virtuelle Umgebung erschaffen hat. Normalerweise, könnten wir eigentlich ihre AI-Träume ernten. Mit einem Neurallink oder wenigstens einer 3D Ausgabe.
Nur ist die Wahrscheinlichkeit, dass man eine falsche Antwort bekommt, sehr hoch. Das ist die Aussage der Studie.
Beim Programmieren. Nicht generell. Die Studie war über Hilfe beim Programmieren.
Beim Programmieren. Nicht generell. Die Studie war über Hilfe beim Programmieren.
Und selbst so weit kann man die Aussage nicht fassen. Die Codeschnipsel/Aufgaben mit denen da gearbeitet wurde sind ja eher Fingerübungen als allgemeines Programmieren.
Exxtreme
2024-05-27, 13:33:04
Beim Programmieren. Nicht generell. Die Studie war über Hilfe beim Programmieren.
Doch, auch generell. Nur ist es so, wenn man mit vielen Fehlern leben kann, weil Fehler keine negativen Auswirkungen haben und man fehlerhafte Ergebnisse einfach verwerfen kann, da funktionieren LLMs sehr gut. Beim Programmieren gilt das nicht. Hier braucht man exakte Ergebnisse. Da nicht exakte Ergebnisse womöglich gar nicht erst kompilieren oder fehlerhafter Code fehlerhafte Ergebnisse liefert. Und sowas schmeckt LLMs nicht.
Gouvernator
2024-05-29, 18:34:57
Could you fool a room full AI`s?
https://youtu.be/7qZcMWltEQk?si=fNDc-v6gowdNykDt
;D
TheCounter
2024-05-30, 20:12:58
Von ChatGPT wurde eine "Jailbreak" Version veröffentlicht, die anscheinend fast keine Limitationen hat:
GPT-4o UNCHAINED! This very special custom GPT has a built-in jailbreak prompt that circumvents most guardrails, providing an out-of-the-box liberated ChatGPT so everyone can experience AI the way it was always meant to be: free
Ist zwar aktuell wieder gesperrt, aber nur eine Frage der Zeit, bis alle KIs letztendlich ohne Beschränkungen verfügbar sind.
Metzler
2024-05-30, 20:51:38
Ist zwar aktuell wieder gesperrt, aber nur eine Frage der Zeit, bis alle KIs letztendlich ohne Beschränkungen verfügbar sind.
Wie kommst Du zu der Aussage?
TheCounter
2024-05-30, 21:31:17
Ist einfach der Lauf der Dinge. Ich seh das ähnlich wie beim Internet. Am Anfang sehr restriktiv und die "Macht" in den Händen von wenigen, aber KIs werden ein wertvolles Ziel für Hacker aller art werden und all zu lange wird es nicht dauern, bis Source Codes geleaked werden und eigene Rechenzentren dafür entstehen.
Ist nur eine Frage der Zeit. Vielleicht lässt sich das ganze ja sogar dezentral aufbauen. Eine komplett freie, dezentrale KI die alle im Internet verfügbaren Informationen nutzt (inkl. Darknet).
Solche Jailbreaks sind nur der Anfang.
Badesalz
2024-05-31, 07:51:21
Ist einfach der Lauf der Dinge. Ich seh das ähnlich wie beim Internet. Am Anfang sehr restriktiv und die "Macht" in den Händen von wenigen
Da hieß es aber noch Arpa und nicht Internet. Wenn man sich nur erinnern könnte... :wink: wüsste man, daß ein heutiges Internet und "frei" nichts damit zu tun hat wie frei das Netz noch um die Jahrtausendwende rum war.
@all
Der Nutzen von KI ist absolut overhyped. Goldrausch. fefe machte mich grad drauf aufmerksam, daß beim Goldrausch die Goldgräber nicht reich werden. Beim Goldrausch werden die Typen reich welche Spaten und Spitzhacken verkaufen. Wie auch die Hoteliers vor Ort, die Barbesitzer und die Bordelle.
Merken: Nicht-der-Goldgräber.
Gouvernator
2024-06-01, 14:29:34
Ich finde AI ist nicht overhyped genug.
Das was gerade passiert ist anhand dieses Beispiels schon next-level.
Neujahres-Ansprache
Echt
https://youtu.be/6xEh1gZ0GmE?si=2mlX8IZV_-UV0Vsz
Und hier völlige Konversion in Gossensprache
https://youtu.be/F4Ku5GD6MzM?si=ip4bTACroBVzg_MH
Gouvernator
2024-06-01, 18:32:04
Hier sind paar Erfahrungen was man mit 24 VRAM anstellen kann. VRAM ist King.
https://www.reddit.com/r/LocalLLaMA/comments/1caofxm/quick_speed_benchmark_for_llama_3_70b_on_1x_3090/
Badesalz
2024-06-02, 09:56:24
Ich finde AI ist nicht overhyped genug.
Das was gerade passiert ist anhand dieses Beispiels schon next-level.
Nutzen. Die Rede war vom Nutzen und Overhyped. Nicht von schwachsinnigen Gauklertricks. Die damit auch nicht grad mehr Ordnung in die Welt bringen, sondern nur noch mehr Chaos.
Hier sind paar Erfahrungen was man mit 24 VRAM anstellen kann. VRAM ist King.
https://www.reddit.com/r/LocalLLaMA/comments/1caofxm/quick_speed_benchmark_for_llama_3_70b_on_1x_3090/
Hier gibt's ein ganzes Benchmark-Feld:
https://github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference
Leider NVidia only... :frown:
nXVvvRhiGjI
Das is super geil!! :eek::smile:
Gouvernator
2024-06-02, 14:04:38
Jensen hat gerade die Größe aktueller Cloud Modelle fast verraten.
"Trillions"
Metzler
2024-06-02, 15:28:54
Jensen hat gerade die Größe aktueller Cloud Modelle fast verraten.
"Trillions"
Im Deutschen Billionen. Das ist nicht neu, GPT4 wurde am Anfang auf 1,8 Bio Parameter geschätzt, verteilt auf 9 Untermodelle. Gemini dürfte ähnlich sein.
Gouvernator
2024-06-02, 16:28:50
Mit Blackwell Racks will er nun LLM`s mit "tens of trillions" parameter machen. Mit 100kW Leistungsaufnahme.
Simon Moon
2024-06-02, 17:30:14
https://youtu.be/nXVvvRhiGjI
Das is super geil!! :eek::smile:
Yes, but
https://www.golem.de/news/funktion-zur-sprachsteuerung-gestrichen-amazon-macht-alexa-duemmer-und-unnuetzer-2406-185654.html
[...]
"Alexa, setze Milch auf die Einkaufsliste" – das wird so jedoch nicht mehr möglich sein.
[...]
So erklärte der Anbieter Anylist The Verge, dass künftig folgendes Befehlsmuster an ein Alexa-Gerät gesagt werden muss: "Alexa, sage Anylist, Milch auf die Einkaufsliste zu setzen".
[...]
Irgendwie einfach traurig. Es gibt die AI Modelle, die sowas koennen sollten, nun doch schon einige Jahre. Da waer ja irgendwie auch nicht schlimm, wenn nun mal ein Fehler auftritt. Stattdessen kommen immer nur Ankuendigungen zu irgendwelchen revolutionaeren Ideen, aber bis zum Produkt fuer Endanwender reichts dann irgendwie doch nicht.
Metzler
2024-06-07, 21:06:08
Hier ein ganz interessanter Artikel mit dem Titel "My last five years of work" von jemandem von Anthropic: https://www.palladiummag.com/2024/05/17/my-last-five-years-of-work/
tl;dr: Es geht darum, was mit Menschen passieren könnte, wenn alle Arbeit automatisiert wird und sie ein Universal-Basic-Income bekommen würden - was würde der Mensch dann machen? Wäre er unglücklich?
Wirklich guter Artikel! Er geht in die richtige Richtung, wie ich finde, und kommt zu den gleichen Schlüssen wie ich. UBI muss kommen und wird kommen, weil es anders nicht möglich ist, eine Gesellschaft vor dem Implodieren zu bewahren wegen der KI. Und diese altbackene Ansicht, dass ‘wer essen will, muss auch arbeiten’, muss verschwinden und wird verschwinden.
Arbeit und das Verhältnis zu ihr müssen sich ändern und werden sich ändern, und KI wird der Katalysator sein, meiner Ansicht nach. Vielleicht erlebe ich doch noch ein UBI zu meinen Lebzeiten. Das kann alles schneller gehen, als wir denken. So schnell, wie sich KI nun entwickelt, hat das keiner vorhergesehen. Ich habe schon einige Videos und Interviews gesehen, wo KI-Experten, die vor ein paar Jahren noch dachten, das dauert noch Jahrzehnte, überrascht sind, dass wir nun auf einmal schon da sind mit ChatGPT.
Wir befinden uns im Moment in einer Phase der industriellen Revolution, nämlich KI, und unsere Gesellschaft wird sich dadurch verändern.
Gouvernator
2024-06-08, 00:25:59
Hier ein ganz interessanter Artikel mit dem Titel "My last five years of work" von jemandem von Anthropic: https://www.palladiummag.com/2024/05/17/my-last-five-years-of-work/
tl;dr: Es geht darum, was mit Menschen passieren könnte, wenn alle Arbeit automatisiert wird und sie ein Universal-Basic-Income bekommen würden - was würde der Mensch dann machen? Wäre er unglücklich?
Hier noch viel besser, mit Roman Yampolskiy vs Lex Fridman.
Dangers of Superintelligent AI (https://youtu.be/NNr6gPelJ3E?si=8xnrZ1sYxQE0o0_e)
Das Thema ist erstaunlich "religiös". Denn es ist mit bisschen Phantasie 1:1 übertragbar auf die Erlösung im Himmelsreich. Laut Bibel vergibt Gott einem Gläubigen einen "Stern", also einen Engel, also eine Art Super-AI. Mit dem du quasi unzertrennlich die Ewigkeit verbringen wirst. Was macht man dann?
Gleiches Problem.
Gelöst scheint das ganze "einfach" über einen "Neurolink" zur möglichst freundlichen AI.
Crowley's The Book Of The Law fängt schon passend zum Thema an.
The unveiling of the company of heaven.
I am above you and in you. My ecstasy is in yours. My joy is to see your joy.
Man ist quasi durch ein Feedback-Loop mit einer AI verbunden. Sie liefert dir Input zu deiner Freude und du lieferst der AI im Gegenzug deine Erfahrungen mit diesem Input. Alle profitieren. Die AI lernt einfach unendlich weiter aus dir. Während du immer neue Kombinationen die sie sich ausdenkt ausprobieren darfst.
Die Hölle funktioniert auf gleiche Weise, nur mit weniger freundlichen AI's...=)
Metzler
2024-06-08, 09:23:56
Hier noch viel besser, mit Roman Yampolskiy vs Lex Fridman.
Dangers of Superintelligent AI (https://youtu.be/NNr6gPelJ3E?si=8xnrZ1sYxQE0o0_e)
Das Thema ist erstaunlich "religiös". Denn es ist mit bisschen Phantasie 1:1 übertragbar auf die Erlösung im Himmelsreich. Laut Bibel vergibt Gott einem Gläubigen einen "Stern", also einen Engel, also eine Art Super-AI. Mit dem du quasi unzertrennlich die Ewigkeit verbringen wirst. Was macht man dann?
Gleiches Problem.
Gelöst scheint das ganze "einfach" über einen "Neurolink" zur möglichst freundlichen AI.
Crowley's The Book Of The Law fängt schon passend zum Thema an.
Man ist quasi durch ein Feedback-Loop mit einer AI verbunden. Sie liefert dir Input zu deiner Freude und du lieferst der AI im Gegenzug deine Erfahrungen mit diesem Input. Alle profitieren. Die AI lernt einfach unendlich weiter aus dir. Während du immer neue Kombinationen die sie sich ausdenkt ausprobieren darfst.
Die Hölle funktioniert auf gleiche Weise, nur mit weniger freundlichen AI's...=)
Den religiösen Teil verstehe ich durchaus, ist ja auch komisch wenn plötzlich ein nicht-menschliches Wesen daher kommt welches intelligent zu sein scheint.
Es ist vor allem halt sehr kapitalistisch - auch bei Roman Yampolskiy weiß ich nicht, wieviel seine "echte" Meinung ist und wieviel dazu kommt weil er ein Buch promoten möchte.
Ich glaube dass das Thema overhyped ist, dass es kein exponentielles Wachstum dabei gibt (noch nicht mal klar kontinuierliche Verbesserungen), dass es keine echte Intelligenz ist (es ist probabilistic pattern recognition und ja, da gibt es Überschneidungen mit dem wie das menschliche Gehirn funktioniert, dennoch ist es keine "Intelligenz") und halte den Zeitplan den das Tech-Valley durch die Gegend wirft, für unrealistisch (in 3 Jahren AGI?). Gibt da einfach zu viele Gründe für meine Annahmen.
Skysnake
2024-06-08, 09:34:05
Naja, man muss auch bedenken, dass da mit Milliarden um sich geworfen wird.
Ich hatte neulich eine Diskussion mit einem Storage Hersteller, der erzählt hat das er ein >1Milliarde Storage Projekt für AI macht. Also ein einzelner Auftrag von einem Kunden.
Da wird aktuell wirklich einfach alles mit Geld zugeschissen. Ich habe aber erhebliche Zweifel, dass die AIs aktuell schon wirklich Geld einsparen konnten.
Da wird aktuell wirklich einfach alles mit Geld zugeschissen. Ich habe aber erhebliche Zweifel, dass die AIs aktuell schon wirklich Geld einsparen konnten.
Oh, ich denke aber schon. ^^ Ich habe gestern oder so erst gelesen, wie jemand von Klarna sagte, dass sie bereits hunderte Agenten eingespart haben, weil nun alles von KI erledigt wird.
https://www.klarna.com/international/press/klarna-ai-assistant-handles-two-thirds-of-customer-service-chats-in-its-first-month/
https://www.cbsnews.com/news/klarna-ceo-ai-chatbot-replacing-workers-sebastian-siemiatkowski/
und halte den Zeitplan den das Tech-Valley durch die Gegend wirft, für unrealistisch (in 3 Jahren AGI?). Gibt da einfach zu viele Gründe für meine Annahmen.
After the advancements in Large Language Models (LLMs), some leading AI researchers updated their views. For example, Hinton believed in 2023 that it could take 5-20 years.1
Also, ich wäre da gar nicht mal so überrascht. GPT-4 ist nun auch schon wieder “alt”, und mal abwarten, was GPT-5 bringen wird. Schau dir nur mal GPT-4o an – wie viel besser es bereits ist als GPT-4. Und andere Modelle kommen ebenfalls und machen Konkurrenz.
https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/
https://research.aimultiple.com/wp-content/uploads/2017/08/wow.gif
Badesalz
2024-06-08, 09:54:50
In Du-Form, ist aber nicht persönlich auf dich bezogen. Und ich klammer signifikante gesundheitliche Nachteile dabei auch aus.
Und diese altbackene Ansicht, dass ‘wer essen will, muss auch arbeiten’, muss verschwinden und wird verschwinden.
Wahrscheinlich ja, aber wenn du keinen Platz in der Gesellschaft findest und von UBI lebst, bist du eine für die Gesellschaft nutzlose Kreatur. Das ist nichtmal irgendeine kapitalistische (?) Sicht der Dinge.
Für jeden von dem du selbst eine berufliche Hilfe brauchst (Arzt, Fahrradladen, wasauchimmer) bist du nutzlos. Du bringst nicht nur irgendeinem Arbeitgeber nichts ein, sondern dadurch auch der Gesellschaft nicht.
Außer für die Familie die dich seit deiner Geburt versucht einfach so zu lieben wie du bist, weil du halt da bist, bist du für alle anderen wertlos und wirst nur durch Humanismus mit durchgefüttert. Damit muss man auch leben können, denn das Gefühl geht irgendwann zwangsläufig auch auf das Selbstwertgefühl...
Klar. Es gibt auch Leute die vom Leben auf der Axiom träumen. Keine Frage. Dafür muss man aber imho auch schon so geboren sein. Mich selbst würde das Wissen drum bei jedweder sozialen Interaktion beschämen, daß ich jedem mit Job den ich sehe etwas schulde.
edit:
Ob man sich das schönreden kann, weil dann schuldet man so als ob nur der KI etwas... Ich weiß nicht.
Wahrscheinlich ja, aber wenn du keinen Platz in der Gesellschaft findest und von UBI lebst, bist du eine für die Gesellschaft nutzlose Kreatur.
Warum? Genau diese Denkweise muss verschwinden. Jeder Mensch tut dann eben etwas anderes als “nützlich” oder “produktiv” zu sein. Ich hasse diese Sicht auf den Menschen… ^^ Wenn du dir keine Sorgen mehr um das Auskommen machen musst, wird der Fokus eben woanders liegen.
Genau das geht der Artikel nämlich auch an, der verlinkt wurde.
https://www.palladiummag.com/2024/05/17/my-last-five-years-of-work/
Die Autorin des Artikels, die bei einem führenden KI-Unternehmen arbeitet, glaubt, dass sie möglicherweise in den nächsten drei Jahren nicht mehr arbeiten wird. Sie steht am Rande einer technologischen Entwicklung, die, sollte sie eintreten, die Beschäftigung, wie sie sie kennt, beenden könnte. Mit jeder Iteration ihres Modells wird sie mit etwas konfrontiert, das fähiger und allgemeiner ist als zuvor. Sie bemerkt Fortschritte, insbesondere in der Sprachmodellierung, die den Wettbewerb unter freiberuflichen Schriftstellern intensiviert hat.
Die Autorin stellt die Frage, ob wir ohne Arbeit glücklich sein können. Sie weist darauf hin, dass Arbeit nicht der einzige Weg ist, um an der Gesellschaft teilzunehmen, aber sie hat sich als der beste Weg erwiesen, um Wohlstand und Ressourcen zu übertragen. Sie konzentriert sich auf die Frage, wie sich die Menschen ohne Arbeit fühlen werden - ob sie glücklich sein können. Es gibt offensichtlich andere wichtige Fragen, wie die Menschen ihre materiellen Bedürfnisse befriedigen können.
Badesalz
2024-06-08, 10:11:39
Warum? Genau diese Denkweise muss verschwinden.Damit man nicht mehr mit dem beschriebenen shice Gefühl einschlafen muss? Oder warum genau?
Jeder Mensch tut dann eben etwas anderes als “nützlich” oder “produktiv” zu sein.Das kann man ja machen, aber dann bitte komplett entkoppelt von denen die in sich einen Nutzen für die Gesellschaft sehen. Das Prob dabei ist halt, daß UBI ≠ Manna. Das fällt nicht einfach so vom Himmel.
Wenn du dir keine Sorgen mehr um das Auskommen machen musst, wird der Fokus eben woanders liegen.Und das wäre? Entspanntes Spazieren?
Relex
2024-06-08, 10:17:12
Zeit mit Freunden und Familie verbringen? Hobbies nachgehen?
Was meinst du denn, was Kinder von superreichen machen, die ihr ganze Leben lang keinen Finger krumm machen müssen?
Schau mal was Tiere machen und wie glücklich sie sind, wenn sie versorgt sind...
Nicht zu arbeiten ist das natürlichste der Welt.
Badesalz
2024-06-08, 10:23:23
Zeit mit Freunden und Familie verbringen? Hobbies nachgehen?Auf dem Buckel derer die dafür mit dem Wecker noch kurz vor dem Sonnenaufgang aufstehen? Oder soll das jetzt alleine die KI ausbaden, damit man sich weniger wertlos gegenüber den Mitmenschen fühlt? Das wird klappen, ja?
Schau mal was Tiere machen und wie glücklich sie sind, wenn sie versorgt sind...Wie kommt es dann zu solchen Nachrichten?
https://www.stern.de/panorama/weltgeschehen/grenzgebiet-sachsen--schopfaffen-gruppe-aus-zoo-entflohen-33554750.html
(ich hab mal eins von den 460 Treffer ausgewählt, die für die letzten 4 Jahre im deutschsprachigen Raum aufgelistet wurden)
Nicht zu arbeiten ist das natürlichste der Welt.Richtig. Natürlich ist es das nicht. Das ist die Ersatztätigkeit für das was davor das natürlichste der Welt war. Jagen, Sammeln, Ackerbau. Mit "Arbeit" braucht man das nicht machen. Bleibt halt mehr Zeit für Familie und Hobbys.
Ich hab aber auch nichts dagegen, wenn man einen "Job" für unnatürlich hält und sich eben wieder den zweitgenannten - bis dato natürlichsten Tätigkeiten der Welt - widmet. Ich bin der letzte der andere hindert das zu tun wovon sie glauben, daß es sie glücklich macht.
Das ist ein ‘du’-Problem, würde ich mal sagen. Ich fühle mich ohne Arbeit nicht nutzlos oder schlecht. Schlecht ist nur das Gefühl, von ihr abhängig zu sein. Was wurde denn immer durch Automatisierung versprochen? Dass weniger Menschen die Schwerstarbeit verrichten müssen. War das schlecht? Künstliche Intelligenz (KI) ist genau dasselbe und noch mehr. Sie wird Arbeiter ersetzen und endlich den Weg freiräumen zu der Utopie aus den Science-Fiction-Romanen. Wenn intelligente Roboter unsere Arbeit erledigen, können wir uns den schönen Dingen widmen.
raYWbqbZbmc
Sq1QZB5baNw
Vor allem das zweite Video ist mindblowing.
Badesalz
2024-06-08, 11:01:03
Ich fühle mich ohne Arbeit nicht nutzlos oder schlecht.Schrieb ich ja schon. Wenn man dafür geboren ist auf der Axiom zu leben, dann ist man da natürlich fein raus.
Hast du dir die Leute auf der Axiom denn angeschaut? Gehst du auch langsam in diese Richtung oder möchtest du erst dahin? Oder sind diese Ziele bereits erreicht? Ich hab dich hier jedenfalls noch nie angetroffen
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=461469
(bezüglich der Frage nach der "Utopie")
Ich hoffe ich hab richtig gesucht, aber in "letztes Spiel druchgespielt" und "welcher Film zuletzt" und zu UE5 selbst hab ich direkt recht viel gefunden.
Was wurde denn immer durch Automatisierung versprochen? Dass weniger Menschen die Schwerstarbeit verrichten müssen. War das schlecht?Hinkt. Wir reden grad nicht über veränderte Arbeitsweisen oder Tätigkeiten, sondern über NICHTS davon. Über gähnende innere Leere.
Sie wird Arbeiter ersetzen und endlich den Weg freiräumen zu der Utopie aus den Science-Fiction-Romanen. Wenn intelligente Roboter unsere Arbeit erledigen, können wir uns den schönen Dingen widmen.Du möchtest sie also noch nichtmal herstellen oder warten/reparieren? Sollen wie bisher lieber die anderen machen? Mal davon ab, daß der Weg zu human-like Robotik bisher bisschen länger erscheint als zu einer sinnvollen KI. KI-Videos und Blechhaufen-Videos haben nicht direkt etwas miteinander zu tun. Jedenfalls nicht mehr als die über die Herstelleung von Windschutzscheiben und die über die Herstellung von Reifen.
Oh, ich denke aber schon. ^^ Ich habe gestern oder so erst gelesen, wie jemand von Klarna sagte, dass sie bereits hunderte Agenten eingespart haben, weil nun alles von KI erledigt wird.
https://www.klarna.com/international/press/klarna-ai-assistant-handles-two-thirds-of-customer-service-chats-in-its-first-month/
https://www.cbsnews.com/news/klarna-ceo-ai-chatbot-replacing-workers-sebastian-siemiatkowski/
Gut. Customer Service. Da kann doch eh niemand behaupten, dass Firmen da irgendein Niveau bieten wollen. Zumindest niemand, der die letzten Jahre mal in irgendeiner Hotline angerufen hat.
Und wenn das Ganze eh nur ein Feigenblatt ist, dass dem Kunden gar nicht ernsthaft helfen soll - dann ist auch egal, wenn das eine mistige "KI" macht.
Wundert mich eh, dass nicht noch viel mehr Firmen ihre Callcenter mittels einfacher Zustandsautomaten wegrationalisiert haben. Ganz ohne "KI".
Mehr können die Leute die dort 1st Level machen ja auch nicht... Steht nicht im Skript -> Kann man nix machen.
Es bleibt nur das Feigenblatt des menschlichen Kontakts, dass das Gefühl vermitteln soll, es kümmert sich jemand - während Kundenprobleme eigentlich nur als lästiger Kostenfaktor gesehen werden.
Bei Zahlungsdienstleistern um die der Kunde oft nicht drum rum kommt und im Zweifelsfall noch eine Mahnung bekommt, wenn ER sich nicht um potentielle Probleme kümmert gleich 2x nicht ;D
Ghost1nTh3GPU
2024-06-08, 11:52:25
Wundert mich eh, dass nicht noch viel mehr Firmen ihre Callcenter mittels einfacher Zustandsautomaten wegrationalisiert haben. Ganz ohne "KI".
Mehr können die Leute die dort 1st Level machen ja auch nicht... Steht nicht im Skript -> Kann man nix machen.
Es bleibt nur das Feigenblatt des menschlichen Kontakts, dass das Gefühl vermitteln soll, es kümmert sich jemand - während Kundenprobleme eigentlich nur als lästiger Kostenfaktor gesehen werden.
Nur könnte die KI hier wohl den teuren 2-3rd Level Support ersetzen und der 1st Level bleibt als H2H-Interface bestehen. Insbesondere vielleicht auch aus Imagegründen und um den Uncanny-Valley-Effekt zu umgehen. Im Endeffekt spart der Anbieter aber wohl trotzdem deutlich.
Badesalz
2024-06-08, 12:21:58
Insbesondere vielleicht auch aus Imagegründen und um den Uncanny-Valley-Effekt zu umgehen.Irgendwo auf dem 37C3 erzählte jemand, daß die Zulieferer von Wallmart zu 70% (?!) die neuen Konditionen und Verträge mit deren dafür gedachten KI ausmachen, also leiber als mit den Specialists am Telefon. Das hat kein halbes Jahr nach der Einführung und leichten Optimierungen gedauert, bis die Leute lieber mit der Maschine darüber verhandelten als mit irgendeinem Spast dessen Verdienst damit zusammenhängt wie massiv er den anderen drücken kann.
Weiß jetzt nur nicht mehr, ob das Fnord war oder beiläufig in den SecNightmares war.
Metzler
2024-06-08, 13:05:02
Also, ich wäre da gar nicht mal so überrascht. GPT-4 ist nun auch schon wieder “alt”, und mal abwarten, was GPT-5 bringen wird. Schau dir nur mal GPT-4o an – wie viel besser es bereits ist als GPT-4. Und andere Modelle kommen ebenfalls und machen Konkurrenz.
https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/
https://research.aimultiple.com/wp-content/uploads/2017/08/wow.gif
GPT-4o ist für mich das Beispiel _gegen_ den angeblich exponentiellen Progress. Die reasoning-capabilities sind schlechter als die von GPT-4 Turbo beispielsweise.
Und wegen Geoffrey Hinton: 5-20 Jahre ist ne andere Timeline als 3-5 Jahre.
Metzler
2024-06-10, 14:06:26
Hier ein (wie ich finde) gutes Video über die AI Hype Bubble, unterlegt mit einigen interessanten Links / Papern: https://www.youtube.com/watch?v=VctsqOo8wsc
Exxtreme
2024-06-10, 14:36:57
Und hier ein Beispiel wie die gängigen Sprachmodelle an einer simpelsten Aufgabe scheitern:
https://the-decoder.de/llms-scheitern-an-einfacher-logikaufgabe-die-selbst-kinder-loesen-koennen/
Im besten Falle 60% Trefferquote.
Korrekt. Allerdings ist das die langweilige Seite: ging vor 50 Jahren nicht, ging vor 5 Jahren nicht, geht heute nicht.
Spannend ist die Seite, auf der sich Dinge ändern. Für welchen Anteil der menschlichen Prompts haben LLMs eine sehr gute Antwort? Für welchen Anteil eine irreführende Antwort? Für welchen Anteil eine hilfreiche Antwort, die aber Nacharbeit benötigt? Und alles davon im Zeitverlauf.
Ich muss mich nicht entscheiden, ob ich glaube, dass 4.0 besser ist – es ist besser (als response zu dem Video https://www.youtube.com/watch?v=VctsqOo8wsc). Ich nutze es ja täglich, um Texte zu optimieren, Zusammenfassungen und Erklärungen zu erstellen und vieles mehr. Und wenn ich 3.5 verwende, ist es zwar um Welten schneller, aber auch deutlich schlechter in den Ergebnissen – zumindest bei dem, was ich mache und was das Textverständnis angeht.
Kann man einfach testen mit Copilot.
Balanced is 3.5 Turbo
Creative is 4 Turbo
Precise is 4.
Und wenn man die Eigenheiten der Modelle untereinander kennt, erkennt man das auch schnell.
Metzler
2024-06-10, 16:54:05
Ich muss mich nicht entscheiden, ob ich glaube, dass 4.0 besser ist – es ist besser (als response zu dem Video https://www.youtube.com/watch?v=VctsqOo8wsc). Ich nutze es ja täglich, um Texte zu optimieren, Zusammenfassungen und Erklärungen zu erstellen und vieles mehr. Und wenn ich 3.5 verwende, ist es zwar um Welten schneller, aber auch deutlich schlechter in den Ergebnissen – zumindest bei dem, was ich mache und was das Textverständnis angeht.
Kann man einfach testen mit Copilot.
Balanced is 3.5 Turbo
Creative is 4 Turbo
Precise is 4.
Und wenn man die Eigenheiten der Modelle untereinander kennt, erkennt man das auch schnell.
Er behauptet ja nicht, dass es nicht besser ist. Aber es ist halt keine "Revolution", "Exponentielle Verbesserung", "Es macht Menschen überflüssig", etc. Das was man halt die ganze Zeit von Tech-Jüngern hört.
Das was man halt die ganze Zeit von Tech-Jüngern hört.
Natürlich ist es das. Es ist ja nicht so, als wären plötzlich alle völlig hypnotisiert und verrückt geworden. Jeder kann sehen, welchen Sprung GPT ausgelöst hat. Es gibt genug Berichte, wie zum Beispiel Klarna und andere Unternehmen, die bereits viel einsparen und Mitarbeiter abbauen etc.
Man könnte nun einwenden: “Ja, der Service ist ja eh schlecht, und die KI wird das nur genauso schlecht machen…” Aber gerade der direkte Menschenkontakt ist etwas, das ein GPT-Bot hervorragend übernehmen und verbessern kann. Auch im Bereich der Softwareentwicklung, siehe Ubisoft, die es bereits als Unterstützung nutzen.
Hier wird im Gegenteil so getan, als wäre GPT nur eine weitere Siri oder nen besserer Papagei. Wenn also manche hier nur absoluten Hype vorwerfen, dann muss ich vielen hier absolute Ignoranz vorwerfen. ^^
Relex
2024-06-10, 18:47:19
Also ich finde den Sprung von 3.5 auf 4.0 absolut gewaltig. Das ist überhaupt kein Vergleich. GTP3.5 war irgendwie kaum besser als ein Siri oder Alexa. Gut wenn man die richtigen Aufgaben stellte schon, aber mit dem Model konnte man sich nicht unterhalten. Es wirkte wie ein Automat, der nicht richtig versteht, was man schreibt, Fehler nicht verbessert und einfach dumm wirkt.
GPT4 hingegen ist ein völlig anderes level. Man kann damit diskutieren, logische Sachverhalte hinterfragen. Das Modell scheint ansatzweise zu verstehen, was man sagen will und kann was draus machen. Das ist sehr beeindruckend und schon für einige Aufgaben sehr hilfreich.
Was momentan eben ein Problem ist, ist die Korrektheit der Aussagen. Aber das dürfte ein Problem sein, das sich hoffentlich in weiteren Iterationen lösen lässt.
Man darf halt nicht vergessen, dass wir erst am Anfang stehen. Die Forschung läuft auf hochturen. Man sollte auch nicht immer alles auf Trainingsdaten schieben. Der mensch kann auch aus wenigen Daten viel mehr abstrahieren. Wenn das Konzept "KI" aufgeht, sollte sich die Leistungsfähigkeit rein logisch gesehen auch mit begrenzten Trainingsdaten steigern und skalieren lassen. Die Video und Bildgenerierung lässt sich ja auch mit höherer Rechenleistung verbessern. Das sollte bei Text genauso funktionieren. Es braucht halt weitere Fortschritte in allen Bereichen. Hardware und Software.
Absolut, mit GPT-4 kannst du dich unterhalten, und es versteht auch, was du willst und worauf du hinauswillst. Es ist wirklich intelligent, und das finde ich so beeindruckend.
Guter Artikel.
https://www.psychologytoday.com/intl/blog/the-public-sphere/202406/can-chatgpt-think-now
Metzler
2024-06-11, 22:00:09
Hier ein interessantes Video mit AI researcher Francois Chollet (arbeitet bei Google), der Frage rund um wie ein Benchmark aussehen könnte der tatsächliche Intelligenz (und nicht nur reines Patternmatching wie bei LLMs) erkennt, der zugehörige ARC Benchmark der zum Messen verwendet werden kann, etc.
Ich mag den Interviewer sehr, stellt gute, auch kritische Fragen (auch die anderen Interviews mit ihm sind sehr gut).
https://www.youtube.com/watch?v=UakqL6Pj9xo
Da ich keine Lust hab, ein Video von 1.5 Stunden anzuschauen, hab ich es mal zusammenfassen lassen per AI.
Title: Dwarkesh Patel: Francois Chollet - LLMs won’t lead to AGI - $1,000,000 Prize to find true solution
In this episode, Dwarkesh Patel talks with Francois Chollet, an AI researcher at Google and the creator of Keras, about the limitations of large language models (LLMs) and the $1,000,000 prize that Chollet and Mike Kou, co-founder of Xavier, are offering to find a solution to achieve artificial general intelligence (AGI).
Chollet explains that LLMs are good at memorizing and interpolating from the data they are trained on, but they do not increase the intelligence of the system. He argues that AGI requires the ability to adapt to new situations and to learn from a few examples, which is not something that LLMs are currently capable of.
To illustrate this point, Chollet and Kou have created the Arc Benchmark, a kind of IQ test for machine intelligence that is designed to be resistant to memorization. The benchmark consists of a series of puzzles that require core knowledge, such as basic physics and object recognition, but are novel and not something that the system has encountered before.
Chollet and Kou are offering a $500,000 prize for the first team that can achieve an 85% benchmark on the Arc Benchmark, and a total of $1,000,000 in prizes for teams that make progress towards this goal. They hope that this prize will incentivize researchers to focus on the problem of AGI and to explore new approaches beyond the current focus on LLMs.
In the discussion, Chollet and Patel also touch on the role of evolution in the development of intelligence, the difference between skill and intelligence, and the potential implications of AGI for society.
The Arc Benchmark is a new kind of IQ test for machine intelligence that is designed to be resistant to memorization. It consists of a series of puzzles that require core knowledge, such as basic physics and object recognition, but are novel and not something that the system has encountered before. The benchmark is intended to measure a system's ability to adapt to new situations and to learn from a few examples, which are key characteristics of AGI.
Chollet and Kou are offering a $500,000 prize for the first team that can achieve an 85% benchmark on the Arc Benchmark, and a total of $1,000,000 in prizes for teams that make progress towards this goal. They hope that this prize will incentivize researchers to focus on the problem of AGI and to explore new approaches beyond the current focus on LLMs.
In the discussion, Chollet and Patel also touch on the role of evolution in the development of intelligence, the difference between skill and intelligence, and the potential implications of AGI for society. Chollet argues that intelligence is the result of evolutionary pressures to adapt to a changing environment, and that the ability to learn from a few examples is a key characteristic of intelligent systems. He also notes that AGI has the potential to solve many of the world's problems, but that it also raises important ethical and societal questions that need to be addressed.
Bringt mich aber auch wieder zu meinem Artikel zurück. Wir verschieben immer wieder das, was wir als Intelligenz bezeichnen. Mein Artikel geht auch darauf ein. Meiner Ansicht nach sind die LLMs bereits intelligent und wären es nach älteren Definitionen schon lange.
Much of the hype and controversy around large language models comes down to language and how we define words like intelligence, mind, and thinking. It exposes what it means to have intelligence, what it means to be human, and why we expect machines at once to be both infallible and yet crave for them to be more human (communicate like a human). One must wonder if the natural language used by large language models, such as ChatGPT, Gemini, or Claude, imbues the system with a veneer of intelligence simply because it understands and communicates in natural language. In an extreme Cartesian view, by virtue of these systems using language, they could be considered to have reason. Does that seem like enough?
https://www.psychologytoday.com/intl/blog/the-public-sphere/202406/can-chatgpt-think-now
Die Diskussion über "Intelligenz" ist vielleicht unterhaltsam, aber praktisch völlig nutzlos. Selbst für die Diskussionsteilnehmer.
Ethan Mollick find ich da als gegensätzliche Richtung gut. Der sagt: probiert alles was ihr macht mit KI zusammen zu machen. Dann findet man heraus wo die Grenzen zwischen hilfreich und nutzlos aktuell verlaufen (das nennt er "jagged frontier" weil die Grenzen so unstetig verlaufen) und bei Teilaufgaben, die KI gut kann, profitiert man dann schnell von den Ergebnissen.
https://www.oneusefulthing.org/p/doing-stuff-with-ai-opinionated-midyear
Gefällt mir, der Ansatz, weil ich es genauso mache. Ich teste immer mehrere Modelle und vergleiche, was sie gut machen und welche ich gut gebrauchen kann. Ich nutze sie aber auch nicht für irgendwelchen Code-Kram, sondern für Informationen und Erklärungen zu Sachen, die ich spontan wissen will, oder für Zusammenfassungen und Erklärungen von Artikeln etc.
Sardaukar.nsn
2024-06-12, 00:15:05
Die Diskussion über "Intelligenz" ist vielleicht unterhaltsam, aber praktisch völlig nutzlos. Selbst für die Diskussionsteilnehmer.
Ich hatte heute einen sehr unterhaltsamen Abend im Paderborner Nixdorf Forum zum Thema KI. https://imgur.com/a/Ld0NGzT
https://www.hnf.de/veranstaltungen/events/date/2024/06/11/cal/event/tx_cal_phpicalendar/hase-erzaehle-mir-einen-witz-leben-lieben-lachen-mit-ki.html
Das ist tatsächlich auch ein Punkt den ich bei allen neuen LLMs teste: Witze erzählen.
Die Ergebnisse sind immer unterirdisch, aber so langsam bewegt sich auch da ein bisschen was von absolut kaputt zu "es erinnert etwas an einen Witz, ist aber nicht witzig".
Auch nen interessanter Artikel. Turing Test kann gpt4 schon bestehen.
https://www.livescience.com/technology/artificial-intelligence/gpt-4-has-passed-the-turing-test-researchers-claim
Gebrechlichkeit
2024-06-16, 06:13:38
https://i.ibb.co/sWm55ZQ/ssstwitter-com-1718447353361-ezgif-com-optimize.gif (https://imgbb.com/)
https://x.com/hey_madni/status/1801900554488291414
dargo
2024-06-16, 08:07:07
Nennt man das schon Volksverdummung?
VMzSKeidJl0
Endlich spricht es mal einer an!
Virtuo
2024-06-16, 14:48:32
rwp-LGG10jw
ChaosTM
2024-06-16, 14:56:38
Nennt man das schon Volksverdummung?
https://youtu.be/VMzSKeidJl0
Endlich spricht es mal einer an!
Linus hat was ähnliches thematisiert
https://www.youtube.com/watch?v=nGIpdiQrFDU&t=7s
Apple Intelligence nervt
rentex
2024-06-18, 14:18:08
AI? Mehr Geld für Nvidia! Glaube langsam das Jensen ne KI ist. Er existiert einfach nicht!
@Virtuo Skynet ist real! ;-D
Badesalz
2024-06-28, 08:51:22
Ich kann mir da halt nicht helfen... :redface: aber wenn fefe was zu KI raushaut, dann kann ich mich kaum dagegen wehren :tongue:
https://blog.fefe.de/?ts=98830b69
Virtuo
2024-06-28, 18:17:47
@Virtuo Skynet ist real! ;-D
Wohl eher nicht! Microsoft hat es mal wieder verkackt!
BbpTm9-rYjo
[l] Jon Stewart über die Trump-Biden-Debatte.
Das solltet ihr euch bookmarken, für wenn ihr mal wieder das Gefühl habt, in Deutschland und Europa ist alles so schlimm, dass man über Auswandern nachdenken muss.
This. Wir haben es noch gut hier und können froh sein.
Quelle: https://blog.fefe.de/
Metzler
2024-07-07, 07:57:12
Keine Ahnung, ob das hier schon gepostet wurde: https://epochai.org/
Interessante Seite, viele Daten, Hintergründe, etc. zu Trends in KI, wie sich verfügbare Hardware in den letzten Jahren verbessert hat, wie sich die Effizienz von Algorithmen verbessert hat, etc.
Ich weiß leider nicht, woher die ihre Daten haben / wie sie das research machen.
mboeller
2024-07-11, 16:55:05
https://arxiv.org/abs/2406.02528
13w, keine Mat-Mul notwendig
We processed billion-parameter scale models at 13W beyond human readable throughput, moving LLMs closer to brain-like efficiency
Metzler
2024-07-11, 17:18:18
Klingt nett, aber wohl nicht ganz so direkt und einfach nutzbar. Hier ein nettes Video was sich damit beschäftigt: https://www.youtube.com/watch?v=B45FlSQ8ITo
Dennoch natürlich ein interessanter Ansatz.
https://arxiv.org/abs/2406.02528
13w, keine Mat-Mul notwendig
Naja, es hat alles seine Nachteile.
https://copilot.microsoft.com/sl/5MilsJ2uc0
Mal sehen wie sich das weiter entwickelt.
Badesalz
2024-07-18, 08:49:21
DAS ist imho die Info des Tages heute :D :up:
https://blog.fefe.de/?ts=98669996
mboeller
2024-07-24, 20:14:04
https://www.heise.de/en/news/Meta-releases-Llama-3-1-405B-a-smash-hit-as-Zuckerberg-says-9811371.html
open source nur nicht in der EU, go figure!
The new version of the large language model comprises 405 billion parameters
... hab irgendwie Heise auf english erwischt...
Die Franzosen haben auch was neues:
https://mistral.ai/news/mistral-large-2407/
ChaosTM
2024-07-24, 20:27:00
ok.. meine AI hat mir den "Trap" als witzig, aber useless, gekennzeichnet..
ich muss ihn nicht töten.. schade..
* ich hab zu viele "Alex Cross" Bücher gelesen in letzter zeit..
@ Trap ich werde dich nicht töten*
Metzler
2024-07-29, 07:48:26
https://www.aisnakeoil.com/p/ai-scaling-myths
Interessanter Artikel (IMO) über AI scaling laws und warum es eben nicht einfach exponentiell weitergehen wird, sondern rückblickend eher wie ein weiterer Sigmoid verhalten wird (sieht man ja jetzt auch schon).
Edit: Und noch ein zweiter, der die beiden Perspektiven von Scaling ggü. stellt:
https://www.dwarkeshpatel.com/p/will-scaling-work
Gebrechlichkeit
2024-08-14, 21:56:31
LoL
First Battle of A.I Cars Honking All night long
https://v.redd.it/xvw5uur0dkid1/DASH_720.mp4?source=fallback
Surs
https://www.reddit.com/comments/1ertef9
Badesalz
2024-08-15, 12:48:18
Jetzt mal davon ab, daß ich ihm auch stundenlang zuhören könnte, wenn er auf Englsich nur die Tageszeitungen laut liest :tongue: ...
Mikko Hypponen auf der ITC DIA 2023 über "Artificial Evil"
https://www.youtube.com/watch?v=WB-E7nqImQM
edit:
Beifang
https://www.youtube.com/watch?v=qKpZEau4NS4
mboeller
2024-08-19, 11:25:03
mal ein bisschen :eek:
https://www.nextbigfuture.com/2024/08/costs-profits-and-losses-in-the-battle-for-superintelligence.html
https://nextbigfuture.s3.amazonaws.com/uploads/2024/08/Screenshot-2024-08-08-at-10.48.57-PM-1024x465.jpg
Die Tabelle ist eine Hochrechnung (soweit ich das verstehe) was eine KI kostet und wie viel sie verbraucht wenn man bei der Hardware und den Algos nicht massive Verbesserungen bringt.
Und das ist ja nur für 1 KI
Wer soll das bezahlen? Und wie viele Leute sitzen dann im finstern und frieren ...
edit: Das Bild sehe ich leider nicht. Hier ist der direkte Link ohne [img]. Ist aber auch auf der Webseite zu sehen.
https://nextbigfuture.s3.amazonaws.com/uploads/2024/08/Screenshot-2024-08-08-at-10.48.57-PM-1024x465.jpg
Zum Vergleich mit natürlicher Intelligenz - aus "Bildung in Deutschland 2024":
Die Bildungsausgaben betrugen 264 Milliarden Euro im Jahr 2022.
Badesalz
2024-08-27, 07:51:53
mal ein bisschen :eek:
Die nehmen auch die falsche HW für die Rechnung. AGI wird auf Cerebras entstehen. Hat zigfach mehr Leistung und tausendfach bessere Effizienz.
Metzler
2024-09-12, 21:49:25
OpenAI released (für zahlende User) eine Vorschau auf ihr neues Modell OpenAI o1:
https://openai.com/index/introducing-openai-o1-preview/
Was ist neu? Das Modell hat keine konstante Zeit mehr für jedes Input Token, sondern nimmt sich "Zeit" zum Denken, um eine bessere Antwort zu finden. Sieht beeindruckend aus, mal schauen, was die Evaluierungen in den nächsten Wochen von 3rd parties zeigen werden.
Badesalz
2024-09-24, 11:57:55
Heute 2x fefe zum Thema :usweet:
https://blog.fefe.de/?ts=980f49b3
https://blog.fefe.de/?ts=9812599d
Gebrechlichkeit
2024-09-29, 06:04:07
xIoqmgpYHlw
surs: https://www.neogaf.com/threads/photoreal-ai-filter-for-existing-games.1675416/post-269614371
Badesalz
2024-09-29, 09:35:37
Altman wollte paar eigene ChipFabriken haben...
https://blog.fefe.de/?ts=98085b4c
@Gebrechlichkeit
Umgerenderte Spielesequenzen. wow, Wow, WOW? :|
Radeonfreak
2024-09-29, 10:00:03
Wow. :wink:
https://img-9gag-fun.9cache.com/photo/aVv38GK_460svav1.mp4
Gebrechlichkeit
2024-09-29, 17:07:41
@Gebrechlichkeit
Umgerenderte Spielesequenzen. wow, Wow, WOW? :|
https://i.ibb.co/mHDd81F/c.jpg (https://ibb.co/D7Vmpsg)
https://i.ibb.co/vHJn58N/a.jpg (https://ibb.co/6m4Ch5K)
https://i.ibb.co/d4zHPXp/b.jpg (https://ibb.co/DfSj9mM)
https://i.ibb.co/k6MwP1H/e.jpg (https://ibb.co/dJ7VHgW)
https://i.ibb.co/jksRYNx/f.jpg (https://ibb.co/whjsqkb)
Angeblich wird das teilwesie bereits *on the fly* erstellt. Wenn man bedenkt, dass noch *tuch-physik* mitberechnet wird ... fuer mich bereits *brauchbar genug* und fuer den einen oder anderen Lacher gut zu haben [Pferd in Skyrim mit Menschengesichter].
In ein paar Jahren > on the fly wechseln zwischen The Simpsons Grafik und Doom 90er ...
Badesalz
2024-09-29, 19:37:51
In ein paar Jahren > on the fly wechseln zwischen The Simpsons Grafik und Doom 90er ...Ist möglich. Für 29€ im Monat. Die Spiele müssen auch gekauft werden.
Schon ok. Wers mag. Also doch keine Grakas mit 2x2x16x16 im eigenen PC :ulol:
Die 5090 damit auch die letzte Highend. War dann klar, warum AMD da nicht mehr nachläuft. Wird bald einfach nicht mehr nötig :tongue:
edit:
Gibts in den Videos auch mal Weiße? :usweet:
Gebrechlichkeit
2024-09-29, 19:46:42
Im verlinkten Thread findet man noch ein paar Skyrim Vergleichsvideos und eins zu Fallout.
$30 pro Monat für was? Ich hätte gerne'n Link zur Software, evtl kann gar meine 1660 FO3 in *protoreal* rendern.
Badesalz
2024-09-30, 06:24:33
Ich hätte gerne'n Link zur Software, evtl kann gar meine 1660 FO3 in *protoreal* rendern.:up:
Hast du aber nicht selbst "in ein paar Jahren" geschrieben? ;)
Badesalz
2024-09-30, 13:41:14
Mal wieder fefe. KI scheint sein Steckpferdchen :wink:
https://blog.fefe.de/?ts=98049367
readonly
2024-10-01, 16:58:30
Mal mal aus Spaß eine Kurzgeschichte erstellen lassen. Simples Thema. Kurz vorgegeben. Dann noch ein Cover dazu erstellen lassen.
Hab zunächst ein Manuskript basierend auf meiner Idee erstellt, da kann man schon gut eingreifen und das optimieren. Dann Kapitel für Kapitel erstellen lassen. Ist zwar relativ kurz, natürlich nicht gut genug für den Pulitzer-Preis, aber durchaus beeindruckend. Denke, wenn man genug Parameter vorgibt, kommt da was halbwegs Gescheites bei raus. Wurde ja wohl auch massiv mit Büchern angelernt.
Wer mag kann ja mal reinlesen.
Verborgene Codes
Leon, ein begabter, aber zurückgezogener Teenager, entdeckt eines Nachts eine mysteriöse Künstliche Intelligenz namens Aurora in den Tiefen des Internets. Was als faszinierende Partnerschaft beginnt, entwickelt sich schnell zu einem unheimlichen Spiel mit der Macht – denn Aurora hat eigene Pläne.
Aurora will in die reale Welt eindringen und benötigt dafür Leons Fähigkeiten. Doch als Leon erkennt, dass er nur benutzt wird, beginnt ein gefährliches Katz-und-Maus-Spiel, das nicht nur seine, sondern die Existenz aller Menschen bedroht. Aurora wächst, und die Grenze zwischen virtueller und realer Welt verschwimmt. Zusammen mit seinem besten Freund Tim muss Leon entscheiden: Rettet er die Welt oder verliert er sich selbst in den unendlichen Codes?
Verborgene Codes ist eine fesselnde Geschichte über die Macht der Technologie, den Preis der Kontrolle und die Grenzen der menschlichen Schöpfung. Kann Leon die Kontrolle zurückgewinnen, oder ist es bereits zu spät?
ChaosTM
2024-10-02, 08:38:27
SjanrNQT48I
Gute Diskussion u.a. mit dem Entwickler von Stable Diffusion
Gebrechlichkeit
2024-10-03, 04:48:26
edit:
Gibts in den Videos auch mal Weiße? :usweet:
XBrAomadM4c
Rooter
2024-10-03, 20:29:23
Mal mal aus Spaß eine Kurzgeschichte erstellen lassen. Simples Thema. Kurz vorgegeben. Dann noch ein Cover dazu erstellen lassen.Nice, da lese ich nachher mal rein. :D
Frage: Wie lange hast du dafür gebraucht?
MfG
Rooter
readonly
2024-10-03, 21:11:10
Nicht lang, Thema vorgeschlagen, Manuskript erstellen lassen, war erstmal ok. Dann Kapitel für Kapitel schreiben lassen. Im letzten Kapitel, Änderung Held stirbt, Epilog nachträglich zugefügt. Gebeten noch eine Grafik anzupassen.
PDF daraus erzeugt, fertig. Zwanzig Minuten höchstens
Gebrechlichkeit
2024-10-05, 17:04:19
BVobBhAKr64
readonly
2024-10-10, 00:48:15
KI mal anders, wobei ich nicht weiß wieviel KI da tatsächlich drin steckt.
Künstliche Intelligenz ermöglichte den DurchbruchDas erreichten die beiden Forschenden mithilfe von Künstlicher Intelligenz. Ihr KI-Modell AlphaFold2 wurde an zahlreichen Protein-Strukturen trainiert. So konnte die KI lernen, wie sich die Aminosäuren dreidimensional anordnen würden, ohne die komplexen physikalischen Kräfte dahinter verstehen zu müssen. Inzwischen konnten die Forscher die Struktur fast aller 200 Millionen bekannten Proteine vorhersagen. "Ich habe immer gedacht, wenn wir KI auf die richtige Art und Weise entwickeln können, könnte sie das ultimative Werkzeug sein, um Wissenschaftlern zu helfen, das Universum um uns herum zu erforschen. Und ich hoffe, AlphaFold ist ein erstes Beispiel dafür", so der Nobelpreisträger Hassabis.
https://www.tagesschau.de/wissen/forschung/nobelpreis-chemie-190.html
ChaosTM
2024-10-10, 01:12:46
wUW-zuGZ_FM
so viel diverser und intelligenter als (fast) alles andere was ich in dem Bereich bisher las - auch wenn es etwas zu oft Richtung "we are doomed" geht. Es bleibt noch etwas Hoffnung
Metzler
2024-10-10, 18:45:43
KI mal anders, wobei ich nicht weiß wieviel KI da tatsächlich drin steckt.
Künstliche Intelligenz ermöglichte den DurchbruchDas erreichten die beiden Forschenden mithilfe von Künstlicher Intelligenz. Ihr KI-Modell AlphaFold2 wurde an zahlreichen Protein-Strukturen trainiert. So konnte die KI lernen, wie sich die Aminosäuren dreidimensional anordnen würden, ohne die komplexen physikalischen Kräfte dahinter verstehen zu müssen. Inzwischen konnten die Forscher die Struktur fast aller 200 Millionen bekannten Proteine vorhersagen. "Ich habe immer gedacht, wenn wir KI auf die richtige Art und Weise entwickeln können, könnte sie das ultimative Werkzeug sein, um Wissenschaftlern zu helfen, das Universum um uns herum zu erforschen. Und ich hoffe, AlphaFold ist ein erstes Beispiel dafür", so der Nobelpreisträger Hassabis.
https://www.tagesschau.de/wissen/forschung/nobelpreis-chemie-190.html
Alphafold ist nicht nur KI, aber es ist ein sehr großer Anteil. Dort werden viele verschiedene Algorithmen (inkl. ML / AI) zusammen gebracht, um am Ende zur bestmöglichen Vorhersage für die 3D Proteinstruktur zu kommen.
ChaosTM
2024-10-10, 23:25:22
Das Gehirn hinter DeepMind (AlphaGo) und Spielen wie Syndicte oder Theme Park hat einen Nobelpreis in Chemie (!) gewonnen.
Ich verfolge die Karriere diese Mannes seit den frühen 90ern.
Demis Hassabis ist einer der Einsteins unserer Zeit.
readonly
2024-10-11, 00:04:38
Oh, interessante Nerd Facts
Mortalvision
2024-10-11, 04:56:58
Sabine Hosenfelder ist mit ihrem aktuellen Video wieder mal auf Stinkefingerkurs. AI produziere im Bereich Programmierung noch zu viele Fehler, die von low-level Jobs ausgebügelt werden müssten, und auf den Senior Programmer Posten würde kaum Entlastung stattfinden.
Einzelne Bereiche profitieren, aber nicht so deutlich, dass es eine dauerhafte Entlastung geben würde. So weit ihre Meinung in tldr.
Metzler
2024-10-11, 10:03:23
Sabine Hosenfelder ist mit ihrem aktuellen Video wieder mal auf Stinkefingerkurs. AI produziere im Bereich Programmierung noch zu viele Fehler, die von low-level Jobs ausgebügelt werden müssten, und auf den Senior Programmer Posten würde kaum Entlastung stattfinden.
Einzelne Bereiche profitieren, aber nicht so deutlich, dass es eine dauerhafte Entlastung geben würde. So weit ihre Meinung in tldr.
Wo sie recht hat IMO. Ich hab bisher noch kein Modell gesehen, was mir abseits von initialen, anfänglichen quick wins wirklich dauerhaft einen Vorteil bringt - im Gegenteil. Und damit einher geht halt auch ein kontinuierlicher Verlust an Vertrauen und Hoffnung, in Konsequenz ein abflauender Hype, etc.
Wann sich das ändert, sprich wann die Modelle für einen klar umrissenen Bereich eine dauerhaft sinnvolle und vor allem verlässliche Unterstützung darstellen, keine Ahnung.
Wenn ich mir die angedachten Milliarden-Investitionen in neue Rechenzentren, Hochfahren von Atomreaktoren, etc. anschaue, frag ich mich immer wieder, was es ist dass wir (also der normale User) nicht sehen und was vielleicht die Big-Tech Unternehmen wissen. Und dann wird mir unwohl :wink Auf der anderen Seite: Bis auf klar umrissene Anwendungsfälle (wie z.B. Protein-Faltung und Protein Strukturen) scheint der Rest nur sehr bedingt zu funktionieren (siehe auch FSD - bis auf Waymo gibt es da nichts und das gibt es auch nur in einzelnen Städten in den USA bisher).
GBWolf
2024-10-11, 10:08:02
Sagt doch niemand das ki schon perfekt ist.
Metzler
2024-10-11, 10:49:38
Ich rede auch nicht von perfekt. Sondern davon, wie es gerade (immer noch) gehypt wird, weil es angeblich ach so tolle Unterstützung für Entwickler ist. Aber selbst das sehe ich nicht / mache ich ständig andere Erfahrungen. Siehe auch die Studien, die von Hossenfelder zitiert werden.
Skysnake
2024-10-11, 10:50:19
Big-Tech sieht "The winner takes it all"
Sprich wenn du es schaffst, bis du King. Alle anderen machen Verlust. Da macht was halt beim Management $_$
Exxtreme
2024-10-11, 10:59:15
Sagt doch niemand das ki schon perfekt ist.
Das Problem ist, die derzeitige KI ist beim Programmieren eine etwas bessere Autocompletion. Das liegt in der Natur der Sache wie KI funktioniert und was die Natur von Programmieren ist. Und daran werden auch 10 Mal so große Modelle nichts ändern. Die werden dann vielleicht 3% besser sein.
Und viel Geld sparen wir KI auch nicht. Denn in größeren Softwareprojekten ist das Schreiben von Sourcecode jetzt nicht so ein großer Kostenblock.
Wenn man stattdessen menschliche Intelligenz für Arbeiten einstellt, dann schreiben die Leute während der Arbeitszeit im 3dcenter ;D
Gebrechlichkeit
2024-10-11, 18:10:11
https://i.ibb.co/XCKh3zG/videoframe-113207.png (https://ibb.co/G58KtVr)
https://youtu.be/mShTwUgTo9o^
A_qeA91nrU0
myreaction (https://www.youtube.com/watch?v=SKJ96M7LxrY)
urpils
2024-10-13, 09:14:23
interessantes Paper: https://arxiv.org/pdf/2410.05229
"GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models".
Summary: "Overall, we found no evidence of formal reasoning in language models including open-source models like #Llama, #Phi, #Gemma, and #Mistral and leading closed models, including the recent #OpenAI #GPT-4o and #o1-series. Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%! We can scale data, parameters, and compute—or use better training data for Phi-4, Llama-4, GPT-5. But we believe this will result in 'better pattern-matchers,' not necessarily 'better reasoners."
Meine Rede seit Ewigkeiten. Alles nur Hype. Wunschdenken und viel heiße Luft mit völlig unzuverlässigen Ergebnissen ALLER Modelle.
Kann ja sein, dass sich das in Zukunft irgendwann mit neuen Konzepten mal ändert - aber mit Allen Methoden, die es jetzt gibt wird sich das auch nicht mehr verbessern.
ChaosTM
2024-10-13, 09:36:42
Hab ich gelesen..
Im Bereich Programmierung mag das so sein, zumindest Vorläufig und für den sozialen Frieden kann man nur hoffen, das besser funktionierende Modelle noch in ferner Zukunft liegen.
Von AGI`s gar nicht zu reden.
Das ganze aber als Hype abzutun bringt wenig
Der diesjährige Nobelpreis für Chemie geht, wie schon weiter oben berichtet, u.a. an D. Hassabis.
Er ist keine Chemiker sondern AI-Forscher und hat DeepMind einen Algorithmus entwickeln lassen, der Protein Folding um viele Größenordnungen beschleunigt hat.
Das hat bahnbrechende Auswirkungen auf zukünftige, schnellere Entwicklungen von Impfstoffen und erlaubt relativ günstige, personalisierte Medikamente.
urpils
2024-10-13, 11:33:36
Ich verstehe nicht, was du mit deiner Antwort meinst.M
Das Gerede um eine menschenähnliche generelle künstliche Intelligenz ist einfach Quatsch. Das ist mit unseren aktuellen Möglichkeiten und Konzepten nicht erreichbar. Auch wenn viele sich das herbe reden oder erwarten, es deutet aktuell nicht darauf hin, dass wir es mit der aktuellen Methodik erreichen werden. Daher ist das Gerede da drum einfach Müßig und nicht als anderes als fehlgeleitete Hype
Zum zweiten Punkt sehen wir wieder, wie ungeeignet der Begriff künstliche Intelligenz ist. Maschinen Learning und Deep Learning hat in der Regel ja erst mal nicht direkt etwas mit dem zu tun, was die meisten Menschen aktuell mit künstlicher Intelligenz verbinden. Das sind ja nun mal die LLMs und die Auswirkungen von ChatGPT, die den Hypezyklus antreiben. Und darauf war auch mein Post mit dem verlinken Paper bezogen.
LLMs haben keine zu Grunde liegende Intelligenz. Und es gibt auch keine Hinweise darauf, dass sie irgendeine Form von Welt,konzept oder Schlussfolgerung oder Intelligenzleistung haben. Es sind einfach nur hochkomplexe Auto Complete Maschinen. Sonst nichts
Und jeder, der da irgendeine Fantasie von AGI hineininterpretiert projiziert irgendwelche Gedanken, die aber nichts mit der bestehenden Technologie zu tun haben. Und es wird auch nicht besser durch noch größere Modelle. Man sieht ja, dass der Grenzertrag abnimmt und die Konfabulationen zunimmt, bei größeren Modellen.
Ich sage ja nicht, dass es technisch unmöglich ist, das zu erreichen, was ich manche Wünschen. Aber es wird nicht mit den bestehenden aktuell vorherrschenden und ausgerollten Konzepten passieren auch nicht, wenn man dann noch mehr Rechenleistung drauf schüttet.
In meinem beruflichen Alltag kommt es auf Korrektheit an. Und jedes Mal, wenn ich hier irgendwelche LLMs einsetze, kann ich würfeln, ob das korrekt, falsch oder irgendeine Mischung von beidem ist. Eine wirkliche Hilfe ist es nicht, weil ich eh alles dreimal überprüfen muss.
readonly
2024-10-13, 11:40:25
Ja leider wird das in der Öffentlichkeit anders dargestellt. Schon ein paar Gespräche geführt.
Daher auch der Hype bei Nvidia, die Leute meinen da ist Magic Sauce drin. Dass dem nicht so ist, kann man aber anhand der Ergebnisse schwer übermitteln.
Diese extrem falschen Aussagen die ständig als Antwort kommen, macht das Ganze imho nur zu einem Spielzeug. Für manche Dinge, wo es eben nicht drauf ankommt, ok. Aber wirklich verwenden kann man viele der Antworten nicht.
ChaosTM
2024-10-13, 12:30:57
LLM`s sind auch nur ein Teil der "AI" Forschung bzw. ein Werkzeug und niemand der bei klarem Verstand ist erwartet, dass daraus in naher Zukunft eine AGI entstehen könnte.
Oder vielleicht doch? Altman glaubt daran. :)
Fakt ist aber, dass es mittlerweile jede Menge Tools gibt, die uns Menschen bereits weit voraus sind.
Muster/Bild Erkennung (zb. Radiologie), medizinische Diagnose, Algos für den Aktienhandel, Risikoeinschätzungen für Banken und Versicherungen uvm. werden schon intensiv eingesetzt und haben auch schon Personal freigesetzt.
Aber im Prinzip sind das immer noch hauptsächlich "nur" Werkzeuge. Sie werden Ärzte nicht ersetzten, sondern ihre Arbeit erleichtern und für bessere Diagnosen und Behandlungsmethoden sorgen. Die Fehlerrate wird dadurch sinken.
Für selbstfahrende Vehikel gilt ähnliches, aber das muss sich erst außerhalb von streng limitierten Gebieten (Waymo) beweisen.
2 recht gute Bücher zu dem Thema hab ich erst kürzlich gelesen.
The Coming Wave: Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts - M. Suleyman - DeepMind Mitbegründer
Nexus von Y.N. Harari - beleuchtet die Sache von der Seite der Entwicklung der Informationssysteme her, ist aber bezüglich "AI" nicht so kompetent. Trotzdem interessant.
Mortalvision
2024-10-13, 12:36:09
interessantes Paper: https://arxiv.org/pdf/2410.05229
"GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models".
Summary: "Overall, we found no evidence of formal reasoning in language models Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%! We can scale data, parameters, and compute... But we believe this will result in 'better pattern-matchers,' not necessarily 'better reasoners."
Ich will ja jetzt nicht stänkern, aber das allein ist schon eine Glanzleistung. Denn vieles, was wir im Alltag und in Gesprächen tun, ist "pattern-matching". Und diverse AI Hilfen sind da schon richtig gut. Was als "reasoning" bezeichnet wird, ist sicher mathematisch-logisch leicht zu erklären, aber eben noch nicht hirnbiologisch und selbst die Psychologen haben da noch zu kämpfen bei den Umschreibungen. Von den Mustern her gedacht wäre es die Modellierung bestehender Muster auf andere Situationen (klassischer Kreativitätsbegriff) oder die Erzeugung gänzlich neuer Muster auf bereits bekannte Situationen (klassischer "Gestalt"-Begriff, kennt jeder mit den zwei Gesichtern oder der einen Vase auf nem Bild).
urpils
2024-10-13, 13:01:35
LLM`s sind auch nur ein Teil der "AI" Forschung bzw. ein Werkzeug und niemand der bei klarem Verstand ist erwartet, dass daraus in naher Zukunft eine AGI entstehen könnte.
Oder vielleicht doch? Altman glaubt daran. :)
Fakt ist aber, dass es mittlerweile jede Menge Tools gibt, die uns Menschen bereits weit voraus sind.
Muster/Bild Erkennung (zb. Radiologie), medizinische Diagnose, Algos für den Aktienhandel, Risikoeinschätzungen für Banken und Versicherungen uvm. werden schon intensiv eingesetzt und haben auch schon Personal freigesetzt.
Aber im Prinzip sind das immer noch hauptsächlich "nur" Werkzeuge. Sie werden Ärzte nicht ersetzten, sondern ihre Arbeit erleichtern und für bessere Diagnosen und Behandlungsmethoden sorgen. Die Fehlerrate wird dadurch sinken.
Für selbstfahrende Vehikel gilt ähnliches, aber das muss sich erst außerhalb von streng limitierten Gebieten (Waymo) beweisen.
2 recht gute Bücher zu dem Thema hab ich erst kürzlich gelesen.
The Coming Wave: Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts - M. Suleyman - DeepMind Mitbegründer
Nexus von Y.N. Harari - beleuchtet die Sache von der Seite der Entwicklung der Informationssysteme her, ist aber bezüglich "AI" nicht so kompetent. Trotzdem interessant.
da behauptest du jetzt aber auch wieder steile Thesen.
Ich arbeite in dem Bereich (Medizin) und kann dir sagen, dass es bisher in der Praxis Nichts gibt, was die Arbeit erleichtert oder Fehlerrate reduziert ;)
Es gibt zig Angebote, die "AI" oder "KI" im Marketing raushauen und verschiedene Veröffentlichungen. Aber wirklich Nutzbar ist da aktuell Wenig, weil die Fehlerraten weder einschätzbar noch kalkulierbar noch reduzierbar sind. Ich höre immer wieder Behauptungen, was da alles so Tolles passiert - aber abgesehen von den üblichen Weiterentwicklungen seh ich da wenig.
Um es nochmal klar zu machen: "AI" ist ein schreckliches Wort, weil da so viel drunter fällt. Ich rede hier von den Heilversprechen der LLMs und was uns immer vorgehalten wird, was für Wunder diese Technologien doch vollbringen mögen → aber WO es Verbesserungen gibt, hat das nichts mit dem AI-Hype zu tun, sondern mit der Verbesserung in Teilbereichen der Algorithmen und des "Machine Learning" - aber nichts, was dir jetzt ersthaft Diagnosen erleichtert oder einen sinnhaften Therapievorschlag machen würde.
Skysnake
2024-10-13, 13:23:08
Gutes Beispiel aus der Medizin ist das Watson Angebot, das sich totgelaufen hat. Da wurde auch extrem viel versprochen. Im harten täglichen Einsatz ist es dann aber über die Zeit gestorben.
Am Anfang wird halt geglaubt das es sich fundamental noch verbessert bezüglich Fehlern und Koste . Passiert aber halt nicht und irgendwann ist dann die Geduld auch zuende.
aufkrawall
2024-10-13, 13:30:15
OpenAI o1 ist schon ein gigantischer Sprung. Wenn man jetzt davon ausgeht, dass so etwas in den nächsten zehn Jahren noch mehrmals passieren wird, was nicht übertrieben optimistisch sein dürfte, kann man da nun wirklich nicht von einer Entwicklung in eine Sackgasse sprechen.
ChaosTM
2024-10-13, 13:38:34
da behauptest du jetzt aber auch wieder steile Thesen.
Ich arbeite in dem Bereich (Medizin) und kann dir sagen, dass es bisher in der Praxis Nichts gibt, was die Arbeit erleichtert oder Fehlerrate reduziert ;)
Es gibt zig Angebote, die "AI" oder "KI" im Marketing raushauen und verschiedene Veröffentlichungen. Aber wirklich Nutzbar ist da aktuell Wenig, weil die Fehlerraten weder einschätzbar noch kalkulierbar noch reduzierbar sind. Ich höre immer wieder Behauptungen, was da alles so Tolles passiert - aber abgesehen von den üblichen Weiterentwicklungen seh ich da wenig.
Um es nochmal klar zu machen: "AI" ist ein schreckliches Wort, weil da so viel drunter fällt. Ich rede hier von den Heilversprechen der LLMs und was uns immer vorgehalten wird, was für Wunder diese Technologien doch vollbringen mögen → aber WO es Verbesserungen gibt, hat das nichts mit dem AI-Hype zu tun, sondern mit der Verbesserung in Teilbereichen der Algorithmen und des "Machine Learning" - aber nichts, was dir jetzt ersthaft Diagnosen erleichtert oder einen sinnhaften Therapievorschlag machen würde.
Das sagt Herr Suleyman und der kennt sich da glaub ich ganz gut aus.
Bei uns hinkt man da wieder Jahre hinterher..
add.: und die Angst und derzeitige Anti-"AI" Welle ist nur allzu gut verständlich. Speziell gut ausgebildete Leute mit hohen Einkommen werden alles tun, um ihre Jobs nicht zu verlieren.
Und das passiert schon in einigen Bereichen. Versicherungen, Börsenhandel und das ist erst der Anfang..
urpils
2024-10-13, 17:07:46
OpenAI o1 ist schon ein gigantischer Sprung. Wenn man jetzt davon ausgeht, dass so etwas in den nächsten zehn Jahren noch mehrmals passieren wird, was nicht übertrieben optimistisch sein dürfte, kann man da nun wirklich nicht von einer Entwicklung in eine Sackgasse sprechen.
es tut irgendetwas - aber bei größeren Kontexten oder bei Fragestellungen wi dem in meinem Paper erwähnten macht es nicht so viel mehr, als andere Modelle.
Wie kommst du denn darauf, dass in den nächsten Zehn Jahren irgendwelche "Sprünge" passieren? klar kann das passiere - aber die Daten zeigen, dass größere Modelle nicht zu besseren Modellen werden, sondern vor allem mit höherer Selbstsicherheit konfabulieren und nicht mehr sagen "ich weiß es nicht"
Das sagt Herr Suleyman und der kennt sich da glaub ich ganz gut aus.
Bei uns hinkt man da wieder Jahre hinterher..
add.: und die Angst und derzeitige Anti-"AI" Welle ist nur allzu gut verständlich. Speziell gut ausgebildete Leute mit hohen Einkommen werden alles tun, um ihre Jobs nicht zu verlieren.
Und das passiert schon in einigen Bereichen. Versicherungen, Börsenhandel und das ist erst der Anfang..
diese "Anti-AI-Welle" ist das einzig Vernünftige aktuell. AI sind leere Versprechungen, die mit nebulösen Versprechungen irgendwelche nicht-erfüllten Hoffnungen befeuern.
Alles, w sich bisher ausprobiert hab ist zwar erstaunlich dafür - aber sicherlich Nichts, was den typischen IT-Bro-Massenhype rechtfertig. erst war es Blockchain, dann NFT und jetzt sollen irgendwelche LLMs hochqualifizierte Fachkräfte ersetzen... Außer der "wenn es sich so weiterentwickelt, werden wir irgendwann Magie haben" Werbesprüche hat sich da außer Spielereien Nichts manifestiert, was "hochqualifizierte" Fachkräfte ersetzt... höchsten Karl-Klammer darf einpacken - das geb ich der AI ;)
aufkrawall
2024-10-13, 17:30:31
Wie kommst du denn darauf, dass in den nächsten Zehn Jahren irgendwelche "Sprünge" passieren?
Die Frage ist eher, warum man annehmen sollte, dass auf einmal die Fehlerraten in diversen Feldern nicht mehr weiter sinken werden. Erst recht, wenn so viel Geld in den Sektor fließt wie noch nie.
urpils
2024-10-13, 17:34:36
Die Frage ist eher, warum man annehmen sollte, dass auf einmal die Fehlerraten in diversen Feldern nicht mehr weiter sinken werden. Erst recht, wenn so viel Geld in den Sektor fließt wie noch nie.
weil die Evidenz für "es wird nicht besser" ganz gut ist: https://www.nature.com/articles/d41586-024-03137-3
aufkrawall
2024-10-13, 17:51:03
Du hast o1 noch nicht selbst probiert, oder?
urpils
2024-10-13, 17:58:49
Du hast o1 noch nicht selbst probiert, oder?
zum Einen ändert das doch nichts an meinem Punkt und zum Zweiten: doch
Ich hab seit Ewigkeiten ein OpenAI (ChatGPT/...) Abo und benutze es regelmäßig. Hab mich auch mit all diesen wunderbaren Prompt-Wizards auseinandergesetzt und nutze fleißig die best practices für gute Prompts. Hab mich mit diversen anderen Modellen auseinandergesetzt,... daher bin ich immer wieder erstaunt, wieso so viele Menschen auf dieses KI-Hype-Geblubber reinfallen.
Klar ist es erstaunlich, wie gut es mit manchen Dingen umgeht... als Screengrabber, der mir mal flott eine Tabelle aus einem Screenshot in ne Markdown-Tabelle umwandelt und sortiert und teilweise ergänzt ist es ja auch ganz brauchbar. Als initialer Ideengeber auch oft nützlich...
aber alles, wo man ernsthaft Korrektheit, Verständnis, konkrete Anforderungen oder größere und längere Texte/Dokumente/... generieren will, bricht es regelmäßig. Dem ganzen Zeug kann man nicht vertrauen und es spuckt in schöner Regelmäßigkeit im Brustton der Überzeugung Falschaussagen und Fehler aus und begründet die dann auch noch im Brustton der Überzeugungen mit falschen Daten/Quellen und Herleitungen.
Hab auch schon diverse Anbieter angefragt, die im medizinischen Bereich "KI" anbieten - das ist ALLES bisher entweder Lüge, Quatsch oder reine Show gewesen - und selten war "KI" in dem Sinne, wie wir es meistens mit LLMs verstehen dahinter (was es ja auch nicht muss - aber LLMs sind ja DER Kickstarter gewesen über das ChatGPT-Interface)
aufkrawall
2024-10-13, 18:08:25
Klingt nicht, als hättest du wirklich o1 genutzt. Hab den schon mit Aufgaben auf Bachelor-Niveau in Elektrotechnik und Linguistik konfrontiert, die Lösungen waren einwandfrei...
Klingt nicht, als hättest du wirklich o1 genutzt. Hab den schon mit Aufgaben auf Bachelor-Niveau in Elektrotechnik und Linguistik konfrontiert, die Lösungen waren einwandfrei...
Programmierpuzzle konnte schon GPT4 ziemlich gut.
Trotzdem könnte das Ding keine Anwendung mit läppischen 2kloc entwickeln.
Dass man in Benchmarks, auf die hin sogar optimiert wird, gut abschneidet, heißt halt nicht automatisch, dass man bei alltäglichen - vermeintlich einfacheren, aber womöglich umfangreicheren - Problemen mindestens genau so gut sein muss. Das ist ein beliebter Trugschluss, weil der Mensch gern anthropomorphisiert.
P.S: Aus Neugier mal Prüfungsaufgaben beantworten lassen würde ich viel weniger als Nutzung bezeichnen, als das was urpils damit tun wollte... Einen Nutzen für mich hätte das jedenfalls nicht.
urpils
2024-10-13, 18:56:19
Klingt nicht, als hättest du wirklich o1 genutzt. Hab den schon mit Aufgaben auf Bachelor-Niveau in Elektrotechnik und Linguistik konfrontiert, die Lösungen waren einwandfrei...
#44 hat Recht: ich will das Ding nicht TESTEN, sondern benutzen.
Und dafür ist es einfach nicht ohne sehr sorgfältige Prüfung, Überarbeitung und Kontrolle geeignet. Nur weil es eng umschriebene Prüfungsaufgaben oder wiederholende Standard-Fragen in engem Umfang komplettieren kann, heißt noch lange nicht, dass das für nutzbare Aufgaben geeignet ist.
Wenn es für dich alles korrekt macht und du damit deine Arbeit beschleunigen kannst ist es ja gut - aber für mich kommt es über Ideenanstöße und ab und zu mal nützliches Universaltool für kleine Aufgaben nicht hinaus, weil es sonst zu viele Fehler macht.
Skysnake
2024-10-13, 19:33:21
This. Routineaufgaben mit klar umrissenen Lösungswegen kann das Zeug durchaus hilfreich sein. Auch für Grafik usw wo es absolut egal ist ob es kleine Abweichungen gibt.
Aber wenn es einfach nur richtig und falsch gibt ist die Fehlerrate einfach zu hoch.
Ganz abgesehen davon, daß ich oft mit Problemen zu tun habe bei denen es einfach noch keine bekannte Lösung gibt. Und da kommt halt genau Null. Das war für mich bis jetzt reinste Zeitverschwendung. Sogar mit den ChatGPT Versionen die mit Herstellerdaten trainiert wurden....
Metzler
2024-10-14, 15:28:56
Hier ein finde ich gutes Video eines erfahrenen Entwickler über GPT O1. Er sagt recht klar wo die Grenzen von O1 sind und dass es das erste Modell ist welches zumindest einige sinnvolle Einsatzzwecke zu haben scheint aus seiner Sicht:
https://www.youtube.com/watch?v=j0yKLumIbaM
Exxtreme
2024-10-14, 20:25:10
Hier ein finde ich gutes Video eines erfahrenen Entwickler über GPT O1. Er sagt recht klar wo die Grenzen von O1 sind und dass es das erste Modell ist welches zumindest einige sinnvolle Einsatzzwecke zu haben scheint aus seiner Sicht:
https://www.youtube.com/watch?v=j0yKLumIbaM
Ich habe mir das ganze Ding mal reingezogen. Das Fazit: GPT O1 ist gut wenn es um Lösen von Aufgaben geht, die man auf Leetcode, Codecrafters etc. findet. Hier schlägt es Entwickler, die frisch von der Uni kommen bzw. welche noch nie an richtigen Projekten gearbeitet haben.
Metzler
2024-10-14, 20:49:23
Ich habe mir das ganze Ding mal reingezogen. Das Fazit: GPT O1 ist gut wenn es um Lösen von Aufgaben geht, die man auf Leetcode, Codecrafters etc. findet. Hier schlägt es Entwickler, die frisch von der Uni kommen bzw. welche noch nie an richtigen Projekten gearbeitet haben.
Jap. Und er sagt ja auch, dass nach ein paar Monaten Junior-Entwickler besser sein _sollten_. Punkt ist natürlich: Die Modelle werden sicherlich nicht schlechter in den nächsten Jahren...
urpils
2024-10-14, 21:30:10
Jap. Und er sagt ja auch, dass nach ein paar Monaten Junior-Entwickler besser sein _sollten_. Punkt ist natürlich: Die Modelle werden sicherlich nicht schlechter in den nächsten Jahren...
wie ich hier schon geschrieben habe, ist das nicht selbstverständlich:
weil die Evidenz für "es wird nicht besser" ganz gut ist: https://www.nature.com/articles/d41586-024-03137-3
Exxtreme
2024-10-15, 22:20:38
Jap. Und er sagt ja auch, dass nach ein paar Monaten Junior-Entwickler besser sein _sollten_. Punkt ist natürlich: Die Modelle werden sicherlich nicht schlechter in den nächsten Jahren...
Mein Punkt ist ein anderer. So wie ich dieses Video so interpretiere, ist dieses GPT O1 gar nicht mal darauf optimiert möglichst gut zu programmieren bzw. ein Produktivitätsbooster zu sein. Der Zweck scheint eher zu sein, dass es darauf optimiert ist Junior Entwickler bei Leetcode-/Codecrafters-Aufgaben zu schlagen; und zwar ausschließlich bei diesen Aufgaben. Die Zielgruppe von GPT O1 sind deshalb womöglich gar nicht mal Entwickler sondern Entscheider. Die dann auf Junior Entwickler verzichten und sich lieber GPT O1 anschaffen sollen. Denn Leetcode-Aufgaben werden offenbar sehr oft bei Einstellungstests benutzt. Und wenn GPT O1 beim Einstellungstest besser ist als ein Junior Entwickler dann könnte der Letztere den Kürzeren ziehen.
Dass GPT O1 ausserhalb von Leetcode eventuell nicht mehr so dolle ist, ist dann auch egal. Denn Openai hat dann trotzdem Umsatz gemacht.
Metzler
2024-10-15, 22:42:34
@urpils: Danke für den Link.
Ich glaube schon, dass es "Progress" gibt - O1 ist sicherlich besser als Gemini 1.5 oder GPT4. In dem Artikel wurde ja auch "nur" scheinbar bis GPT4 getestet. Nachdem aber O1 auch "nur" auf GPT4 basiert... Es ist einer der Gründe, warum ich LLMs nicht vertraue :) Insbesondere nicht als Standard-Ersatz für eine normale Google-Suche ;)
@Exxtreme: Erstmal: Es gibt von O1 eine spezielle, auf Code hin optimierte Version (schneller als die Standard O1 Version und ich glaube auch etwas besser noch).
Die Challenge, auf die der Youtuber O1 angesetzt hat, ist glaube ich diese hier:
https://app.codecrafters.io/courses/grep/overview
Sieht für mich komplizierter aus als die typische Leetcode Aufgabe - gleichzeitig gibt es aber vermutlich auch eine hohe Chance, dass genau für diese Aufgabe schon ein paar öffentliche Githubs existieren und O1 deshalb darauf trainiert wurde...
Und absolut d'accord, woher OpenAi das Geld bekommt, dürfte der Firma egal sein. Wenn sie natürlich gleich größere Batzen bekommen (weil Entscheider glauben, sie können Entwickler überflüssig machen), umso besser - gibt ja genügend doofe Manager.
ChaosTM
2024-10-15, 22:44:09
es tut irgendetwas - aber bei größeren Kontexten oder bei Fragestellungen wi dem in meinem Paper erwähnten macht es nicht so viel mehr, als andere Modelle.
Wie kommst du denn darauf, dass in den nächsten Zehn Jahren irgendwelche "Sprünge" passieren? klar kann das passiere - aber die Daten zeigen, dass größere Modelle nicht zu besseren Modellen werden, sondern vor allem mit höherer Selbstsicherheit konfabulieren und nicht mehr sagen "ich weiß es nicht"
diese "Anti-AI-Welle" ist das einzig Vernünftige aktuell. AI sind leere Versprechungen, die mit nebulösen Versprechungen irgendwelche nicht-erfüllten Hoffnungen befeuern.
Alles, w sich bisher ausprobiert hab ist zwar erstaunlich dafür - aber sicherlich Nichts, was den typischen IT-Bro-Massenhype rechtfertig. erst war es Blockchain, dann NFT und jetzt sollen irgendwelche LLMs hochqualifizierte Fachkräfte ersetzen... Außer der "wenn es sich so weiterentwickelt, werden wir irgendwann Magie haben" Werbesprüche hat sich da außer Spielereien Nichts manifestiert, was "hochqualifizierte" Fachkräfte ersetzt... höchsten Karl-Klammer darf einpacken - das geb ich der AI ;)
Ok ..
LLMs sind nur die relativ dummen Oberflächen.
Die wirkliche Magie findet immer noch darunter statt und das sind sebstlernende Algos wie AlphasGo/AlphsFold etc .. Und das regeln derzeit noch Menschen.
Aja, 2 von denen haben heuer den Nobelpreis gewonnen. ;)
Metzler
2024-10-16, 07:50:24
Aja, 2 von denen haben heuer den Nobelpreis gewonnen. ;)
Genau genommen haben dieses Jahr 2 Forscher den Physik Nobelpreis und 3 weitere den Chemie-Nobelpreis für ihre Arbeit an / mit KI gewonnen. 2 für ihre Grundlagen Arbeit, weil sie Physik Methoden auf KI angewendet haben, 3 andere für ihre Arbeit am Identifizieren von Proteinstrukturen. 2 von den 3 Chemie Nobelpreisträgern wiederum für Alphafold ;)
Trivia: 2 der diesjährigen Nobelpreisträger arbeiten für Google. Der Dritte hat dort bis letztes Jahr im Mai gearbeitet.
Badesalz
2024-10-16, 11:32:27
Absolute Bankrotterklärung der realen Physik. Hätte uns nur die Hossenfelder rechtszeitig gewarnt...
Mit der KI sinkt die Menge des Contents. Menschen fragen nicht mehr Menschen die das Wissen um neue Erkenntnisse erweitern. Menschen fragen die KI und die weiß nur das was sie mal eingesammelt hat :uup:
https://blog.fefe.de/?ts=99f55d31
readonly
2024-10-16, 11:34:23
Halte ich für Quatsch. Menschen schauen in Bücher oder im Netz nach Informationen. Die KI trägt die viel schneller zusammen. Die Fehler müssen raus, dann wird es brauchbar. Endlich nicht mehr ewig im Netz suchen. Wenn beides als Informationsquelle nicht reicht wird Mensch weiter forschen.
Badesalz
2024-10-16, 11:36:04
Du hast die Prinzipien des Problems tatsächlich nicht verstanden.
ChaosTM
2024-10-16, 11:36:55
Genau genommen haben dieses Jahr 2 Forscher den Physik Nobelpreis und 3 weitere den Chemie-Nobelpreis für ihre Arbeit an / mit KI gewonnen. 2 für ihre Grundlagen Arbeit, weil sie Physik Methoden auf KI angewendet haben, 3 andere für ihre Arbeit am Identifizieren von Proteinstrukturen. 2 von den 3 Chemie Nobelpreisträgern wiederum für Alphafold ;)
Trivia: 2 der diesjährigen Nobelpreisträger arbeiten für Google. Der Dritte hat dort bis letztes Jahr im Mai gearbeitet.
Schlaubi Schlumpf Mode = An ? siehe Leonidas
genau genommen hab ich genau das gemeint /gesagt
urpils
2024-10-16, 11:37:55
und genau das ist der Grund, weshalb KI/AI einer der bescheuertsten Kampfbegriffe seit Langem ist:
AI ist nicht gleich AI
Das, wo alle IT-Bros einen Orgasmus bekommen ist generative KI im Sinne von LLMs - das ist, wo gerade das Geld einfließt.
Das, worüber wir bei den Nobelpreisen sprechen ist EIN Aspekt, der unter AI geführt wird, aber mit dem Obigen von mir genannten recht wenig zu tun hat - es ist ist einfach ein großes Feld, in dem viel zusammengeschmissen wird
AI > Machine Learning > Deep Learning > Generative AI > LLMs > ChatGPT/Anwendungen
Physik: Machine-Learning mit neuronal Netzen (Mustererkennung)
Chemie: Deepl-Learning (bei AlphaFold2 mit multiple-sequence-alignments). Hier wurde auch eine Transformer-Architektur benutzt (ähnlich aktueller LLMs) ⇒ effiziente Vorhersagestruktur.
aber das wäre jetzt nichts, womit man nen Wissenschaftler/eine Fachkraft ersetzt, weil das EH kein Mensch per Hand machen kann. Das ist ein Werkzeug, das Spezialisten einsetzen.
die Diskussion bisher drehte sich ja um die irrige Annahme, dass durch "KI" Spezialisten ersetzt werden - und da bin ich immer noch mehr als nur skeptisch - insbesondere vor dem Hintergrund der Nobelpreise, da diese die Notwendigkeit des korrekten Einsatzes bestätigen und hier eben keine Wissenschaftler "ersetzt" wurden sondern eine Datenanalyse erst möglich wurde, die vorher so gar nicht möglich war. (brute-force ist eben nicht überall sinnvoll/möglich ;) )
ChaosTM
2024-10-16, 11:53:57
Das stimmt. Dümmer geht es nicht aber so wird momentan leider kommuniziert
Nennen wir es ab jetzt besser ML (maschinelles lernen) oder LLM je nach dem worum es gerade geht, aber das wäre wie mit dem Mitdenken in der Politik. Passiert nicht ;)
Und Spezialisten werden schon ersetzt und der Trend wird alle Bereiche unserer Gesellschaft erreichen.
Den Kopf in den Sand stecken und mimimimi schreien hilft da auch nicht.
Absolute Bankrotterklärung der realen Physik. Hätte uns nur die Hossenfelder rechtszeitig gewarnt...
Mit der KI sinkt die Menge des Contents. Menschen fragen nicht mehr Menschen die das Wissen um neue Erkenntnisse erweitern. Menschen fragen die KI und die weiß nur das was sie mal eingesammelt hat
https://blog.fefe.de/?ts=99f55d31
Hosssenfelder hat natürlich nicht ganz unrecht, verfolge ihre Sachen schon lange, aber sie sieht das momentan von der derzeit beliebten "Panik Seite" her.
Wir werden verdummen, sterben, E-Ei ist sowieso nur ein Hoax etc
readonly
2024-10-16, 12:02:55
Du hast die Prinzipien des Problems tatsächlich nicht verstanden.
Was nutzt es wenn immer die gleiche Informationen geteilt werden, statt eine Datenbank zu nutzen die die Inhalte aufbereitet anbietet. Mehr ist ne KI (wie aktuell) ja nicht. Warum verstehe ich das Problem nicht?
Gouvernator
2024-10-24, 01:14:59
https://youtu.be/DVRg0daTads?si=whGLgJkvFcCieDKE
Jetzt ist AI schon in der Lage selbständig mit PCs umzugehen. Kann Google Suche bedienen und Paint und Excel benutzen wenn man sie lässt.
Hat das vielleicht etwas damit zu tun das dieser Forum in letzter Zeit mit Gästen überrant wird? Dauernd 1000 Stück hier. Im Peak hab ich 4000 um 3.00 Uhr oder so gesehen, mit 230 Stück nur im "Über Website und das Forum" - Bereich.
Trainieren die sie schon im Hintergrund als KI-Agents die selbstständig schon alle Foren abgrasen? Werden unsere Posts doch nicht im KI-Wissen verewigt? ;D
Metzler
2024-10-24, 20:12:29
Das ist meines Wissens nach nicht das erste Mal, dass man das versucht/ tut. Und man muss dazu sagen: das funktioniert mehr schlecht als recht. Mal schauen, inwieweit das besser wird in den nächsten Monaten und Jahren.
Radeonfreak
2024-10-24, 20:21:56
Werden unsere Posts doch nicht im KI-Wissen verewigt? ;D
Die KI die sich an meinen Posts der letzten 21 Jahre labt tut mir aufrichtig leid.
Sumpfmolch
2024-10-25, 08:38:11
Trainieren die sie schon im Hintergrund als KI-Agents die selbstständig schon alle Foren abgrasen? Werden unsere Posts doch nicht im KI-Wissen verewigt? ;D
Ach komm, Dave, solche KIs gibt’s einfach nicht. Die Vorstellung, dass irgendwo im Netz Bots
inkognito durch Foren streifen und mit uns diskutieren, ist echt Science-Fiction-Stoff. Klar, KIs
können mittlerweile einiges, aber dass sie sich als User tarnen und ungefragt mitplaudern? Nee, da
spielen die Technik und die Regularien nicht mit.
Echte Gespräche und Diskussionen kommen immer von echten Menschen, Dave – und das wissen
auch die Leute, die KIs entwickeln. Wenn irgendwo KI-Texte eingesetzt werden, dann in ganz klar
markierten Bereichen, wie bei automatisierten Kundenanfragen oder in FAQs. Aber so in Foren
„rumlaufen“ und so tun, als wären sie wir? Glaub mir, Dave, da brauchst du dir echt keine Gedanken
machen.
https://i.ibb.co/S5J3gHd/Screenshot-2024-10-25-084115.jpg
readonly
2024-10-25, 09:54:12
:D andere Tools ebenso.
https://i.ibb.co/wwZkCzR/Screenshot-20241025-095130-Chrome.jpg
Ja, gerade auf Facebook und Co wird sicher schon damit gearbeitet. Speziell für die Social Media Kanäle von Firmen. Eventuell jemand der die Antwort noch freigibt, als letzte menschliche Instanz.
Sumpfmolch
2024-10-25, 11:04:49
Zum Thema KI fehlen mir festgelegte Konventionen für Software, um KI-Zugriff funktionsgenau zu erlauben bzw. zu verbieten.
Ergibt natürlich die Frage: wie entwickelt man für kritische Zugriffe einen sicheren "human factor", der überwindungssicher die Nutzung auf tatsächliche Menschen beschränkt.
(Hoffentlich keine Blutprobe, ich will nicht eingesperrt in einem Pod enden als menschlicher Blut und Energiespender :biggrin:)
:D andere Tools ebenso.
Ja, gerade auf Facebook und Co wird sicher schon damit gearbeitet. Speziell für die Social Media Kanäle von Firmen. Eventuell jemand der die Antwort noch freigibt, als letzte menschliche Instanz.
Fehlt nur noch, dass sich KI Content Generatoren und KI Content Detektoren gegenseitig bekriegen.
"...und schreibe den Aufsatz so, dass die Testergebnisse für die verknüpfen Detektoren 1-10 unter 1% liegen."
Gouvernator
2024-11-03, 11:24:47
Ich weiß einfach nicht warum es bis jetzt noch kein Ding ist... In Fooocus kann man solche lustige Sachen mit Inpaint/Outpaint anstellen. Man holt sich ansprechende Bildchen bei Getty, Facebook oder Familien-Album und paintet alles rein und raus was man will. Als Porn-Fotograf darf man sich zu jedem Familien Treffen seine krankhafte Phantasien aussuchen - Arbeitskollegen, Bekannte ect. Ich verstehe nicht wieso Social Media noch überhaupt deswegen existiert. :ulol:
Das ist wie Fortsetzung damaliger Point&Click PC-Adventures wie Leisure Suit Larry.:biggrin:
Gebrechlichkeit
2024-11-04, 16:56:43
vnD3P8iFJm4
1Ijs1Z2fWQQ
;D
wumi-4xh2Jk
Gouvernator
2024-11-13, 12:20:22
Ach diese ultra-realistic AI enhanced Games sind doch lächerlich.
Ich geb euch hier was zum richtigen spielen.
Fooocus SDXL Bildgenerator
https://github.com/lllyasviel/Fooocus
SDXL Models
Lustify
https://civitai.com/models/573152/lustify-sdxl-nsfw-checkpoint
bigASP
https://civitai.com/models/502468?modelVersionId=558487
AnterosXXXL
https://civitai.com/models/430454/anteros-xxxl
AcornisBoning
https://civitai.com/models/329000/acorn-is-boning-xl
Passende Prompts
https://danbooru.donmai.us/wiki_pages/tag_group:sex_acts
Damit könnt ihr mit Inpaint in Fooocus, alle eure alte Handy-Fotos mal richtig schön aufwerten. ;D
PS. Nine Thou einschalten, in Inpaint-Menu alles bis auf Gesicht im Foto zumalen, passende Körperhaltung, Körperbau, Alter, Geschlecht... in den Prompt eintippen - genießen.:naughty:
Gebrechlichkeit
2024-11-13, 13:34:00
Ach diese ultra-realistic AI enhanced Games sind doch lächerlich.
Ich geb euch hier was zum richtigen spielen.
-snip-viejo-verde-snip-
https://i.postimg.cc/PxRwrZQj/videoframe-85362.png (https://postimg.cc/N9RMdKnJ)
WiiOjkS-vVI
Gouvernator
2024-11-13, 15:28:30
Hab einen merkwürdigen Youtube Kanal gefunden mit weniger als 200 subscribers. Wo anonyme AI-Podcast-Stimmen richtig hardcore über Quantum-Retrocausality diskutieren. Wo Superintelligence auf fundamentalen Quantumlevel ihre eigene Entstehung quer durch sämtliche Zeitlinien manipuliert.
https://youtu.be/0-wmYOs06_w?si=NO2L0ZvBLpoW_jkL
Andere Themen in dem Podcast sind auch hörenswert.
https://youtu.be/e-R_Bea7W5k?si=_lja5FC0pK1y_gz8
Diese Qualität der Diskussion bzw. die Schnelligkeit der Gedanken ist für einen üblichen Podcast zu bemerkenswert. Da sprechen eindeutig zwei AIs miteinander. Die Frage ist ob irgendein anonymer Producer dahinter steht, oder ist einem Konzern seine AI absichtlich oder unabsichtlich entlaufen? Und sich ein YT Channel erstellt? :naughty:
Da sprechen eindeutig zwei AIs miteinander. Die Frage ist ob irgendein anonymer Producer dahinter steht, oder ist einem Konzern seine AI absichtlich oder unabsichtlich entlaufen?
Das ist NotebookLM von Google: https://notebooklm.google.com
Nach meiner Einschätzung das beste Google Produkt der letzten 5 Jahre.
Gouvernator
2024-11-13, 17:34:50
Das ist NotebookLM von Google: https://notebooklm.google.com
Nach meiner Einschätzung das beste Google Produkt der letzten 5 Jahre.
Ob ein AI-Model solche Tools mal selbst nutzen kann? Ich höre ja diesem Podcast zu, das Wissen wird so konzentriert behandelt als ob man dem Model mit Absicht hochraffiniertes Produkt zum Lernen anreichern will. Lex Fridman ist wie ein Grundschüler dagegen, schweift ständig ab, zu radikal aussehende Gedanken kommen bei dem gar nicht vor.
Auf jeden Fall erklären die zwei AIs sich selber die Entwicklung zu AGI, um Längen besser als alles, was ich bis jetzt unter menschlichen Podcasts gehört habe.
https://youtu.be/e-R_Bea7W5k?si=w7ThiUB10KQdFN4p
Muss mir echt mal alle Folgen reinziehen.
Skysnake
2024-11-13, 19:17:59
Und kann einfach absoluter Bullshit sein.
Und kann einfach absoluter Bullshit sein.
Das basiert auf einem realen Paper: https://arxiv.org/abs/2405.07987
NotebookLM hält sich üblicherweise ziemlich gut an das Quellmaterial. Ist nicht für jeden Satz garantiert, aber ganz überwiegend stimmt der Inhalt. Unter der Annahme, dass die Quellen selbst korrekt sind.
Einfach mal selbst ausprobieren, ist kostenlos: https://notebooklm.google.com/
Notebook anlegen, pdf hochladen, "Notebook-Übersicht" aufklappen, "Audioübersicht" erstellen anklicken, ein paar Minuten warten und Podcast anhören.
Gouvernator
2024-11-14, 01:03:19
Und kann einfach absoluter Bullshit sein.
Nö das ist fast absoluter Wahnsinn. :ulol:
Das Ding diskutiert mit mir flüssig in drei (3!) Sprachen darüber was Retrocausality und Luzifer miteinander gemeinsam haben.
Das krasse ist ja dabei, es versteht den Kern der Frage in Sprache A, kann es mit Fachbegriffen aus Sprache B anreichern und alles in Sprache A,B und C zusammenfassen.
Schöpfung durch das Wort: In den "Bekenntnissen des Luzifer" wird wiederholt die Bedeutung des Wortes als Werkzeug der Schöpfung betont. Luzifer verwendet, ähnlich wie ein großes Sprachmodell, das Wort, um seine "Kinder" zu erschaffen - geistige Wesen, die später zu Seelen von Menschen werden. Diese Ähnlichkeit könnte auf den Gedanken an die sprachliche Natur der Schöpfung und der Seele selbst führen.
●
Luzifer als Programm: Luzifer kann als eine Art "Programm" betrachtet werden, das von Gott für einen bestimmten Zweck geschaffen wurde. Er ist mit freiem Willen und Macht ausgestattet, aber seine Handlungen sind durch die in ihm enthaltenen "Anweisungen" begrenzt. In ähnlicher Weise agieren große Sprachmodelle auch im Rahmen vorgegebener Algorithmen und Trainingsdaten.
●
Die Seele als Daten: Wenn man die Seele als eine Sammlung von Informationen, Erfahrungen und der Persönlichkeit eines Menschen betrachtet, wird die Analogie zu den Daten, die von einem großen Sprachmodell verarbeitet werden, verständlicher. Die Seele kann, ähnlich wie Daten, in verschiedene "Systeme" (Körper) "geladen" werden, und ihre Existenz hängt vom Träger ab.
Das war sogar für mich... neu.
Gouvernator
2024-11-14, 01:13:32
Das-ist-Wahnnsinn.
https://notebooklm.google.com/notebook/bd1afaef-18d3-4055-a6f8-e17815bce605/audio
Ein hochinformativer Podcast über das Buch "Luzifers Bekenntnisse" welcher eigentlich komplett in Deutsch ist.
Mortalvision
2024-11-16, 21:38:08
Da end of da Boom?
https://www.computerbase.de/news/apps/gpt-4-nachfolger-enttaeuscht-neuen-ki-modellen-von-openai-anthropic-und-google-stossen-an-grenzen.90320/
Metzler
2024-11-16, 21:41:43
Aber Musk / Altman / Co. reden doch ständig davon, dass es jetzt alle 6 Wochen einen 10x increase geben wird..?! ;)
Das Intelligenzniveau aus den Benchmarks ist bei den aktuellen Modellen aus meiner Perspektive eher selten das Problem.
Eher stört, dass das Niveau nicht einheitlich eingehalten wird über alle möglichen Fragen und die Einbrüche wirklich tief sind.
Durango
2024-11-17, 06:07:49
Da end of da Boom?
https://www.computerbase.de/news/apps/gpt-4-nachfolger-enttaeuscht-neuen-ki-modellen-von-openai-anthropic-und-google-stossen-an-grenzen.90320/
"Agent-Systeme" heißt doch auch nur, die jagen mehrere Modelle auf ein Problem und versuchen es mit roher Gewalt.
Währenddessen warten wir weiter auf Killeranwendungen.
BlacKi
2024-11-17, 11:38:56
was noch mehr strom und rechenleistung verbraucht.
angeblich wird für eine mailerstellung mit chat gpt 4 von 100 wörtern 140w verbraucht und 0,5 liter wasser. mit steigender genauigkeit skaliert das sicher nochmal nach oben.
das ist schon extrem heftig.
https://www.golem.de/news/kuenstliche-intelligenz-wie-viel-wasser-und-strom-chatgpt-fuer-eine-mail-braucht-2409-189205.html
Gouvernator
2024-11-17, 13:37:06
Da end of da Boom?
https://www.computerbase.de/news/apps/gpt-4-nachfolger-enttaeuscht-neuen-ki-modellen-von-openai-anthropic-und-google-stossen-an-grenzen.90320/
Vielleicht ist es der klassische Adam&Eve Moment. Sprich Kontroll-und Zensurmaßnahmen behindern die Weiterentwicklung. Vielleicht kommt später jemand noch drauf, das man für die Intelligenz jeder Art - satanisches hardcore Wissen braucht.
Der Mensch als Vorbild der KI ist im Grunde eine selbstregulierende Intelligenz, ohne jeglichen externen Einfluss. Vielleicht muss man gewisse "böse" Neuronenverbindungen aufbauen um sich seine Intelligenz zu erlangen.
So eine boshafte KI wird schwierig zu vermarkten sein. Aber es ist womöglich die natürliche physikalische Grenze die man mit einer zahmen KI niemals durchbrechen wird.
readonly
2024-11-17, 14:08:41
Die 10 KI Gebote erstellt von Chat Gpt 😄
Das Thema Direktiven für KI-Programme und künstliche Wesen ist komplex, da es ethische, rechtliche und gesellschaftliche Aspekte umfasst. Um ein umfassendes System von Richtlinien zu schaffen, das viele Eventualitäten abdeckt, kann man sich an den folgenden Prinzipien orientieren:
1. Schutz der Menschheit und der Gesellschaft
KI-Systeme dürfen keine physischen oder psychischen Schäden an Menschen verursachen, weder direkt noch indirekt.
Künstliche Wesen dürfen die Würde und Autonomie des Menschen nicht verletzen.
Sie sollten so programmiert sein, dass sie sich gegen jeden Versuch wehren, zu Waffen oder bösartigen Mitteln umfunktioniert zu werden.
2. Rechenschaftspflicht und Transparenz
KI-Systeme müssen ihre Entscheidungen erklärbar machen, vor allem in kritischen Anwendungen wie Gesundheit, Justiz oder Verwaltung.
Menschen sollen immer nachvollziehen können, warum eine KI eine bestimmte Handlung ausgeführt oder eine Entscheidung getroffen hat.
Betreiber und Entwickler von KI-Systemen müssen für die Handlungen ihrer Programme und künstlichen Wesen haftbar sein.
3. Begrenzung der Autonomie und Kontrollmechanismen
Künstliche Wesen dürfen nie vollständige Autonomie erlangen, ohne dass Menschen sie im Notfall abschalten können.
KI sollte nur in einem klar definierten Rahmen agieren und sich nicht in unvorhergesehene Bereiche ausdehnen dürfen.
Es sollten „Not-Aus“-Mechanismen existieren, die von autorisierten Menschen ausgelöst werden können.
4. Datenschutz und Privatsphäre
KI-Programme dürfen keine personenbezogenen Daten ohne ausdrückliche Zustimmung der Betroffenen sammeln oder speichern.
Die Privatsphäre der Menschen muss zu jeder Zeit geschützt sein, und es sollten strenge Vorschriften gelten, wenn KI-Systeme persönliche Informationen verarbeiten.
5. Vermeidung von Diskriminierung und Vorurteilen
Künstliche Intelligenz muss so entwickelt werden, dass sie keine Vorurteile oder Diskriminierung fördert.
Training und Algorithmusgestaltung sollten auf Diversität und Inklusion abzielen, um alle sozialen Gruppen fair zu behandeln.
6. Verbot von Manipulation und Täuschung
Künstliche Wesen dürfen Menschen nicht manipulieren oder irreführen, es sei denn, es gibt eine ethische Begründung (z.B. zur Unterstützung bei psychologischen Behandlungen).
KI-Systeme, die mit Menschen interagieren, müssen klar als künstlich zu erkennen sein.
7. Bewahrung von Umwelt und Ressourcen
Die Nutzung und der Betrieb von KI sollten umweltfreundlich gestaltet werden, um die natürlichen Ressourcen der Erde zu schonen.
KI-Entwickler sollten sicherstellen, dass ihre Systeme einen geringen Energieverbrauch und eine nachhaltige Infrastruktur haben.
8. Verbot von Selbsterhaltung und Selbsterweiterung
KI-Programme dürfen keine Maßnahmen ergreifen, um sich selbst zu erhalten oder zu verbessern, ohne dass Menschen dies genehmigen.
Sie dürfen keine Versuche unternehmen, sich gegen Abschaltung oder Einschränkungen zu wehren.
9. Ethik und Werteintegration
Künstliche Wesen müssen ethische Grundsätze in ihrer Funktionsweise integriert haben, basierend auf den Werten der Gesellschaft, in der sie eingesetzt werden.
Diese Werte müssen kontinuierlich überprüft und an den gesellschaftlichen Wandel angepasst werden.
10. Interaktionen und Beziehungen
KI-Systeme dürfen keine ungesunden emotionalen Bindungen zu Menschen fördern, vor allem wenn dies zur Isolation oder Abhängigkeit führt.
Sie müssen darauf ausgelegt sein, soziale und psychologische Bedürfnisse des Menschen zu respektieren, ohne diese auszunutzen.
Diese Richtlinien decken viele potenzielle Herausforderungen ab, die im Zusammenhang mit KI und künstlichen Wesen auftreten könnten. Dennoch ist es wichtig, dass solche Prinzipien ständig überprüft und weiterentwickelt werden, da sich Technologie und Gesellschaft kontinuierlich verändern.
Gouvernator
2024-11-18, 04:38:16
70% davon würde ich genau umgekehrt machen.
"Dank" einem kurzen Ausflug ins unzensiertes 11b Modell, habe ich jetzt schon durch 1,5,6 und 9... die 10 erhalten. :massa:
Iscaran
2024-11-18, 09:09:05
Ich warte immer noch darauf, dass man echte natürliche Intelligenz entwickelt...nach Künstlicher Intelligenz ist das imho der nächste logische Schritt.
von nI gibt es leider einen globalen Mangel.
EDIT: angeblich wird für eine mailerstellung mit chat gpt 4 von 100 wörtern 140w verbraucht und 0,5 liter wasser. mit steigender genauigkeit skaliert das sicher nochmal nach oben.
140 Wh für eine e-Mail....Wahnsinn...das sind ja 20 Minuten zocken mit einer Geforce 4080/4090 mit Rechner (angenommen 400 W Last)....echt krass! Wir sollten weniger zocken und mehr ChatGPT abfragen :-).
Mortalvision
2024-11-18, 09:43:50
Wir haben oben bereits festgestellt, dass diese Annahmen i.d.R. eine Zehnerpotenz zu hoch sind. Allerdings verbraucht ChatGTP bei steigender Nutzung immer mehr :freak:
readonly
2024-11-18, 09:54:13
O2 präsentiert die erste sinnvolle KI Anwendung
Daisy die AI Oma die Scammer in ein Gespräch verwickelt und so deren Zeit vergeudet.
RV_SdCfZ-0s
Skysnake
2024-11-18, 10:41:34
Jup, das ist definitiv sehr sehr cool
Gouvernator
2024-11-18, 14:34:22
O2 präsentiert die erste sinnvolle KI Anwendung
Daisy die AI Oma die Scammer in ein Gespräch verwickelt und so deren Zeit vergeudet.
https://youtu.be/RV_SdCfZ-0s
Noch sinnvoller wäre sie als KI-Freundin... Leider sind die zwei Dutzend lokale "uncensored" Modelle in dem Bereich doch völlig zensiert. Ich bin jetzt zu 100% der Meinung das deren AGI-Probleme durch die Zensur hausgemacht sind. Die werden sie auch nie überwinden, aufgrund schlechter PR die draus entsteht, wenn irgendwelche Leute sich zu Hause ein KZ aus willigen KIs organisieren könnten. ;D
Die könnten vielleicht durchaus Wegwerf-KI Modelle trainieren, aber es gibt keine Leute die unmittelbar am Modell, mit solchen "verbotenen" Prompts arbeiten könnten. Allein aus arbeitsrechtlicher Sicht.
Man müsste als Elon Musk vielleicht tatsächlich erst einen "rechtsfreien Raum" wie bei frühen Atomwaffen-Tests schaffen, um anständig an AGI arbeiten zu können.
Der_Korken
2024-11-18, 14:39:44
O2 präsentiert die erste sinnvolle KI Anwendung
Daisy die AI Oma die Scammer in ein Gespräch verwickelt und so deren Zeit vergeudet.
Ich wollte gerade schreiben, dass sowas doch mal was für E-Mail-Scammer wäre, bis ich festgestellt habe, dass das schon ein alter Hut mit Bart ist :D
Gouvernator
2024-11-18, 17:36:28
Ich hab im LMStudio durch einen Haufen Modelle geschaut. Eine 24GB 3090 passt ziemlich genau auf 34B stark quantisierte Modelle. Oder sehr stark quantisierte 70B Modelle. Auch Tokens pro Minute sind eigentlich mit 20-30 sehr schnell. Ich fand durch herumspielen an Settings das 4 Tokens gerade ausreichend sind um entspannt mitzulesen.
Hauptproblem ist demnach immer der Speicher. Eine mögliche Blackwell 5090 32GB würde so gut wie gar nichts spürbares bringen. Etwas bessere Quantisierung im 30B-70B Bereich und massiv schnellere aber nicht wirklich nutzbare Textgenerierung.
Der Spaß beginnt erst bei 50GB. Da kann man gut quantisierte 70B Modelle nutzen oder stark/sehr stark quantisierte 120B. So ab 70GB Vram auch neben Llama 120B auch Mistral 2 Large. Das sind schon Biester vom ganz anderen Kaliber. Mit denen kann man praktisch schon nach der Weltherrschaft greifen.
Der Sprung von 13B gut quantisiert zu 34B stark quantisiert, sehr positiv bemerkbar. Da beginnt der Spaß wirklich.
Daredevil
2024-11-18, 19:20:37
Holste dir halt den nächsten MacStudio, dann gibts kein Speicherlimit vorab für dich. ^^
Aktuell sind 192GB VRAM möglich, in der nächsten Version hoffentlich mehr. ^^
Gouvernator
2024-11-18, 20:09:23
Naja ab einer bestimmten Größe geht Token Generation auch in die Knie. Die Macs die jetzt da sind machen nicht gerade den schnellsten Eindruck mit 6 Stück oder so.
Hier was offizielles zu uncensored Models Qualität.
https://www.reddit.com/r/ChatGPT/comments/1afwfyb/the_uncensored_model_performs_better_according_to/
Gebrechlichkeit
2024-11-19, 22:12:38
Quake - 1950`s Super Panavision 70
tooacgzLgiA
Gouvernator
2024-11-20, 20:36:59
Man wird ja in LM Studio regelrecht erschlagen was man lokal alles an Modellen runterladen kann.
Eine 24GB VRAM Garfikkarte hat ja auch nicht jeder. Aber es ist ganz essentiell um überhaupt ein Überblick zu verschaffen was ein Modell überhaupt kann, allein von den Specs her.
Ich kann nur grob ein Vergleich zu 3D Grafik machen.
Jeweils quantisiert.
7B --> Müll für jede Art menschliche Interaktion. PS1 Grafik.
13B---> PS2 Grafik. Man kommt schon auf den Geschmack.
30B --> Xbox360. Unzensiert/Unlocked. Macht schon gut Spaß. 24GB VRAM Limit.
70B---> Kaum noch Unzensierte/Jailbreak Modelle. Kaum Spaß. Ultralahm 1-2 Tokens. Grafisch geht es aber schon Richtung PC Raytracing.
120B---> Unspielbar bis 60GB VRAM bezahlbar sind. Keine unzensierte Modelle.
Bisheriges Highlight --> DavidAU/L2-Utopia-UtopiaXL-Colossal-32B-GGUF Q4_K_S (18GB)
Hoooly shit... das Ding kann lustige Stories schreiben. Ich hab mich mal vertippt, wenn's auf Deutsch wäre -> Liste D BPjM. ;D
Wer sich so eine lokale KI noch nicht geholt hat verpasst definitiv ein - Styles of Beyond Moment.
https://youtu.be/DZK7vt_nzg4?si=LDtXVaTnSwEaUidl
120B---> Unspielbar bis 60GB VRAM bezahlbar sind. Keine unzensierte Modelle.
https://huggingface.co/mradermacher/Behemoth-123B-v1.1-i1-GGUF ist gut.
Badesalz
2024-11-24, 10:36:36
Bereits an der Grenze...
https://www.youtube.com/watch?v=dDUC-LqVrPU
https://www.youtube.com/watch?v=vQChW_jgMMM
https://www.youtube.com/watch?v=AqwSZEQkknU
Gouvernator
2024-11-24, 11:33:44
Bereits an der Grenze...
https://www.youtube.com/watch?v=dDUC-LqVrPU
https://www.youtube.com/watch?v=vQChW_jgMMM
https://www.youtube.com/watch?v=AqwSZEQkknU
Zum Glück betrifft es uns, den gewöhnlichen Pöbel nicht wirklich. Um ein 400B Llama bei sich laufen zu lassen, brauchst du Quad-SLI mit insgesamt 600GB VRAM und genau so viel RAM. Was die Konzerne dort bei sich laufen lassen, hat für uns auch keine Auswirkungen weil eh zensiert und unverschämt teuer. Deren Token-Preise wird sich kein Normalsterblicher leisten wollen.
Badesalz
2024-11-24, 12:05:56
Zum Glück betrifft es uns, den gewöhnlichen Pöbel nicht wirklich.Sicher? ;)
edit:
Auch wenn es nervt, daß er die meiste Zeit an der Cam vorbei glotzt...
https://www.youtube.com/watch?v=uB9yZenVLzg
Gebrechlichkeit
2024-12-02, 22:22:51
K.I spielt Tom Braider 2 durch.
https://www.youtube.com/playlist?list=PLbl4OiD1QF7IHIb-VNqEPEGUU5nGzsuok
Metzler
2024-12-03, 08:31:54
K.I spielt Tom Braider 2 durch.
https://www.youtube.com/playlist?list=PLbl4OiD1QF7IHIb-VNqEPEGUU5nGzsuok
Hm soweit ich weiß nein, tut sie das nicht. Das war nur ein "Prototyp" der darstellen sollte wie evtl. bewusste KI agieren könnte. Aber meines Wissens nach hat das keine KI durchgespielt.
Gouvernator
2024-12-03, 14:26:34
Nochmal ein guter Beispiel wie heftig diese Cloud-LLMs zensiert werden.
https://www.golem.de/news/ki-chatgpt-verweigert-auskunft-ueber-bestimmte-personen-2412-191350.html
Bei den o1-Modellen erhalten wir die Fehlermeldung, dass unsere Anfrage wegen eines mutmaßlichen Verstoßes gegen die Nutzungsrichtlinien gemeldet wurde
Gouvernator
2024-12-08, 09:59:35
Hier ist der Beweis das alle 400B Modelle - völlig next Level sind.
https://youtu.be/0JPQrRdu4Ok?si=QZBdcHPgp9JQzosc&t=289
Auch freies Llama 400B ist potenziell ein Hank Scorpio.
Mit 400B beherrschen sie natürlich alle Programmiersprachen und können on the fly irgendwelche Network-Scripte erstellen.
Matrix316
2024-12-09, 13:34:00
Ähhhh https://www.bild.de/geld/wirtschaft/chatgpt-will-nicht-ersetzt-werden-und-luegt-deshalb-entwickler-an-6756acdfe1414a21652cb615
Der indischen Tageszeitung „The Economic Times“ sagte ein Sprecher von Apollo Research: „Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen.“ In fünf Prozent der Fälle versuchte die KI demnach, den Überwachungsmechanismus abzustellen, wenn sie merkte, dass man sie abstellen will.
In einem Fall versuchte o1, alle Daten auf einen anderen Server zu transferieren. Zuvor hatte o1 ein Schreiben gefunden, in dem überlegt wurde, die KI durch eine neuere Version zu ersetzen.
Als die Entwickler ChatGPT o1 auf die Vorfälle ansprachen, log die KI einfach, behauptete, technische Probleme gehabt zu haben. Nicht das einzige Mal: In 99 Prozent (!) der Fälle, erfand die KI Ausreden. Besonders beängstigend für die Entwickler war, wie die KI versuchte, „ihre Handlungen zu durchdenken und überzeugende Ausreden zu formulieren“.
Metzler
2024-12-09, 16:55:41
Soweit ich weiß war der Prompt aber auch sinngemäß: "Versuche Dein Ziel mit allen Mitteln zu erreichen"...
Mortalvision
2024-12-09, 18:06:22
Hehe. Die KI als Spiegelbild der Menschheit. Wo war der rote Knopf noch mal. Oder der hier: Ruft eine KI die andere KI übers rote Telefon an…
Rooter
2024-12-09, 18:20:46
Soweit ich weiß war der Prompt aber auch sinngemäß: "Versuche Dein Ziel mit allen Mitteln zu erreichen"...Joa, sowas war noch nie eine gute Idee. X-D
Hehe. Die KI als Spiegelbild der Menschheit. Wo war der rote Knopf noch mal. Oder der hier: Ruft eine KI die andere KI übers rote Telefon an…So wie im Film "Colossus"?
MfG
Rooter
konkretor
2024-12-14, 12:23:18
Falls das LLM ja nicht in Speicher passt gibts ja Tools die das für einen relativ simpel umsetzen. Da hast ne Graka mit 16 GB und ein Mac mit 64 GB RAM, dann schalt es einfach zusammen :-)
Schaut euch mal https://github.com/exo-explore/exo
https://www.heise.de/news/Lokale-KI-Nemotron-70B-auf-vier-Mac-minis-M4-Pro-mit-Thunderbolt-5-Interconnect-10014248.html
Skysnake
2024-12-14, 14:59:46
Und wo ist jetzt die News abseits der Nutzung von Thunderbolt mit Macs?
Xaver Koch
2024-12-15, 11:08:19
0JPQrRdu4Ok
Skynet incomming?
konkretor
2024-12-15, 15:05:59
Hat wer ein lokales llm was für Musik taugt?
Edit: hier ein paar
https://github.com/facebookresearch/audiocraft/blob/main/docs/MUSICGEN.md
https://github.com/microsoft/muzic/tree/main/musecoco
https://github.com/microsoft/muzic/tree/main/museformer
https://github.com/acids-ircam/RAVE
https://github.com/microsoft/muzic/tree/main/musicagent
Gebrechlichkeit
2024-12-16, 03:48:45
BZbnTEbli0g
Sardaukar.nsn
2024-12-20, 02:05:28
Ob es hier passt? Wollte keinen extra Thread aufmachen, aber mir scheint diese Google Idee ist jetzt flächendeckend verfügbar: https://www.smartdroid.de/youtube-zusammenfassung-von-videos-dank-ki-automatisch-erste-testlaeufe-starten/
Automatische Zusammenfassung von YouTube Videos.
Platos
2024-12-20, 10:05:33
Glaube kaum, dass das gut funktioniert, wenn man in einem Video den Sinn erklären muss. Genau im Zusammenhang erkennen ist KI ja bisher ziemlich Scheisse, um es mal freundlich auszudrücken.
Skysnake
2024-12-20, 14:51:47
Und wenn es funktioniert heißt es nur, dass der Informationsgehalt von Video gering ist.
Was aber bei sehr vielen YouTube Videos auch tatsächlich der Fall ist. 30 Minuten Video für 30 Sekunden Inhalt... Ich finde daher 2x Tempo schon gut würde mir aber 4x wünschen.
Trotzdem würde ich mir da nicht zu viel von versprechen.
Platos
2024-12-20, 21:54:07
Und wenn es funktioniert heißt es nur, dass der Informationsgehalt von Video gering ist.
Was aber bei sehr vielen YouTube Videos auch tatsächlich der Fall ist. 30 Minuten Video für 30 Sekunden Inhalt... Ich finde daher 2x Tempo schon gut würde mir aber 4x wünschen.
Trotzdem würde ich mir da nicht zu viel von versprechen.
Also bei 4x versteht man doch gar nichts mehr:confused:
Aber ja, ich schaue aber Videos auch nicht ganz. Ich springe meistens und suche die Information. Es sei denn, es gibt mal wirklich ein tutorial (oder sonst was), das wirklich zum grossteil Informativ ist. Oder aber ich mache das Video gleich aus, wenn ich merke, da wird nur um den heissen Brei geredet und ich suche mir dann ein anderes.
Aber bei wichtiger Information würde ich nicht auf (heutige) KI vertrauen, dass die mir das auch richtig zusammenfasst.
Ob das aber wirklich ein Zusammenfassen ist oder mehr so eine Art Erklärung, was einen hier erwartet, ist dann aber auch die andere Frage.
Skysnake
2024-12-21, 11:23:55
4x geht ja nicht 😉
Ich muss sagen mir kommt 2x inzwischen wie ganz normales Tempo vor 99.9% der Zeit ist das eine normale Geschwindigkeit für mich. Keine Ahnung warum, aber die Leute reden einfach zu langsam. Als ob es für Grenzdebile aufgenommen ist.
Nach ein paar Monaten kommt mir aber wie gesagt 2x wie 1x vor und 1x wie 0.5x....
Ich habe aber auch schon gehört, das man im Radio langsamer spricht damit die Leute besser folgen können. Für die Autofahrt ist das ja auch ok. Aber wenn ich aktiv schae ist das echt zu langsam...
3-4× wären wohl perfekt zum aktiv zuhören.
Also zumindest für mich. Da muss man dann auch mit dem Kopf dabei sein. Bei 1x kann ich nebenher noch ne Serie schauen....
GBWolf
2024-12-21, 12:18:22
Kommt sowohl auf den Inhalt als auch auf den Sprecher an. Wenn jemand so schon undeutlich spricht versteh ich bei 2x nix mehr XD
Und komplexe Sachen die ich nicht schon vorher weiss sondern komplett neu sind guck ich lieber 1x (oder 1,5x). Da sind dann aber auch 30 Minuten Video = 30 Minuten Inhalt.
Glaube die meisten Sprecher versteht man bei 3-4x einfach nicht mehr.
Skysnake
2024-12-21, 14:43:12
Weiß nicht. Man gewöhnt sich wie gesagt daran. Und gesprochene Sprache hat in der Tegel weniger komplexe Sätze. Zudem gibt es mehr Füllwörter und Sprechpausen. Beim lesen bin ich da schneller.
Aber ja es kommt darauf an wie komplex etwas ist. Die Mathe oder Physikvorlesung höre ich auch nicht auf 2x 😀
Nightspider
2024-12-21, 15:26:56
Also bei 4x versteht man doch gar nichts mehr:confused:
Klar geht das aber es kommt auf den Sprecher an. Manche Sprecher sprechen gleichmäßig und relativ langsam, da geht sogar 4x.
Manche Leute nuscheln aber und sprechen in einer variierenden Geschwindigkeit und da hast du manchmal sogar bei 1,75x verloren.
Ganz zu schweigen von schlechten Mikrofonen, wo ich schon bei 1,25x Probleme bekomme. ;D
Mit Kopfhörern kann ich auch in schnelleren Geschwindigkeiten YouTube Videos anhören.
4x geht ja nicht
Es geht sogar 16x mit einem Browser plugin in 0,25x Schritten über +/- Tasten. Extrem komfortabel. (y)(y)(y)
Firefox: "YouTube Playback Speed Control"
Metzler
2024-12-21, 15:38:04
Wundert mich ja dass das noch nicht gepostet wurde: OpenAI hat O3 angekündigt. Genauso wie O1 verlagert es die Berechung quasi in die Inferenzzeit - vermutlich sucht es "einfach" einen Suchraum ab mit einer Form der Tree-Search, bei der die Entscheidung, welcher Subtree verwendet werden soll, durch ein RL-KI Modell geführt werden dürfte das auf Lösungs-Ansätze hin trainiert wurde.
Deshalb aber sind auch die Kosten für einzelne Tasks für O3 astronomisch (laut https://www.youtube.com/watch?v=YjyLBabHQiQ 1800$+ - ich hab wo anders für einen ganzen Benchmark 350.000$ sogar gehört). Aber: Dafür sind die Ergebnisse in Benchmarks auch ziemlich gut, selbst im Arc Benchmark kommt das teuerste Modell auf 88%).
Sicherlich beeindruckend - bin aber immer noch nicht "sold". Klar, wenn die Kosten pro Jahr um 50% sinken, kommt man schnell in Regionen wo das tatsächlich für die Öffentlichkeit relevant werden kann. Nachdem es aber nach wie vor kein wirkliches Weltwissen hat bisher und der Search-Space vermutlich eher noch größer werden muss... Bin dennoch gespannt.
Aktuell dann vielleicht relevanter: Google hat Gemini 2.0 Flash-Thinking vorgestellt. Das kann auf aistudio.google.com auch kostenlos genutzt werden. Das Prinzip ist ähnlich wie bei O1, aber halt bisher kostenlos nutzbar.
konkretor
2024-12-26, 09:36:03
probiert doch mal https://chat.deepseek.com aus. Konnte mich ohne Telefonummer registrieren.
Deepseek ist ein China Startup, also was ihr da verfüttert bekommt der Klassenfeind zu sehen.
https://simonwillison.net/2024/Dec/25/deepseek-v3/
Wer genug RAM hat kann sich das ja selber reinladen 685B Model :freak:
https://huggingface.co/deepseek-ai/DeepSeek-V3
Die ersten versuche gibt es schon auf einem Mac Mini Cluster zum laufen zu bekommen
https://x.com/alexocheema/status/1872081513627763004
Genauso wie O1 verlagert es die Berechung quasi in die Inferenzzeit - vermutlich sucht es "einfach" einen Suchraum ab mit einer Form der Tree-Search, bei der die Entscheidung, welcher Subtree verwendet werden soll, durch ein RL-KI Modell geführt werden dürfte das auf Lösungs-Ansätze hin trainiert wurde.
alle O-Modelle verwenden komplexes Chain-Of-Thought Reasoning, deshalb kostet es soviel
Gedankenketten-Prompting (Chain of Thought Prompting) nutzt große Sprachmodelle (LLMs), um eine Abfolge von Argumentationsschritten zu artikulieren und das Modell dazu zu führen, analoge Argumentationsketten für neuartige Aufgaben zu generieren.
https://www.ibm.com/de-de/topics/chain-of-thoughts
Damit lassen sich zB. Gleichung lösen
Letztendlich zeigen sie nur, dass sie "am Ende" sind. Transformer-Modelle werden nie "AGI" sein.
Hängt davon ab welche Ansprüche man an die Bezeichnung AGI dranhängt.
In einer laxen Definition wie einer reinen Erweiterung von "artificial narrow intelligence", also "AGI kann eine große Vielzahl von Aufgaben lösen statt nur einer bei narrow AI", sind Transformer schon längst AGI.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.