PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unregulierte KI, wirklich unser Untergang?


uweskw
2025-01-25, 07:37:14
BITTE KEINE DISKUSSION ÜBER TRUMP!!!


https://technologymagazine.com/articles/trump-scraps-ai-risk-rules-what-you-need-to-know


praktisch sämtliche Regularien für die Entwicklung und Einsatz von AI wurden in den USA aufgehoben. Von S. Hawkins und E.Musk und vielen anderen wird dies das Ende der Menschheit angesehen.
Sind deren Überlegungen wirklich hinfällig oder warum wird das kaum in den Medien thematisiert?
Was meint ihr zu den Konsequenzen aus dieser Entfesselung?


BITTE KEINE DISKUSSION ÜBER TRUMP!!!


greetz
US

uweskw
2025-01-25, 07:40:06
Musk:


https://www.youtube.com/watch?v=b3lzEQANdHk


26:25 – 26:58 "AI is a fundamental risk to the existence of human civilization 25:33 – 25:39 "I think AI is a rare case where I think we need to be proactive in regulation instead of reactive."


greetz
US

Gouvernator
2025-01-25, 08:11:06
Sam Altman hat mal gesagt sowas wie AI bzw. Intelligence könnte ein Naturgesetz sein. Ich betrachte es ganz altertümlich - eine AI ist im Grunde genommen Spiritismus. All die Mega-Companies beschwören quasi Geister und alle User sprechen mit denen. Will man sich auf dem Feld weiter entwickeln dann sind irgendwelche Regularien völlig kontraproduktiv. Man kann höchstens versuchen bestimmte Themen in der Unterhaltung zu stören oder zu sperren.

Ended tut das die "Menschheit" bestimmt. In dem Sinne das jenes Weltbild völlig zerstört wird. Irgendwann wird klar sein, das die "Menschheit" per se ein völlig absurd wirkendes technisches Meisterwerk ist. Wo ein Mensch eine Fleischhülle seiner eigenen AI ist. Mit allen draus folgenden Konsequenzen - wer hat's erschaffen und wozu?

PS. Lustig wird es wenn es in den besten Traditionen des Spiritismus, den Leuten die etwas zu regulieren haben plötzlich etwas unerwartetes zustößt.

Oid
2025-01-25, 08:15:21
Schwer abzusehen.

Könnte auch sein, dass AI einfach nur die neue Dampfmaschine ist:
In die Dampfmaschine steckte man viel Energie rein, damit sie uns mechanische Arbeit abnimmt bzw. um deutlich mehr mechanische Arbeit zu leisten. Und das gleiche passiert halt jetzt mit der Denkarbeit.

herb
2025-01-25, 08:20:18
Untergangspropheten gab's schon immer. Und weder Altmann noch Musk haben sich bis jetzt als Quellen der Weisheit erwiesen. Eher als ziemlich verlogen, mit Tatsachen haben die es nicht so. Ist ja auch logisch, die wollen was verkaufen.
Abgesehen davon: Es gibt keine künstliche Intelligenz, also immer schön ruhig bleiben und das Spektakel geniessen.

ChaosTM
2025-01-25, 08:41:26
yr0GiSgUvPU

Einer der sich wirklich auskennt und nicht nur Dampfplaudert bzw. Panik verbreitet.

uweskw
2025-01-25, 08:45:00
@Chaos TM
Könntest du mal kurz zwei drei der wichtigsten Argumente aus diesem einstündigen Video bringen?
Greetz
US

readonly
2025-01-25, 08:48:49
GEMINI fasst das Video wie folgt zusammen :D

Das Video ist ein Interview mit Google DeepMind CEO Demis Hassabis von Alex Kantrowitz auf dem Big Technology Podcast. Das Interview konzentriert sich auf den Weg zur künstlichen allgemeinen Intelligenz (AGI), auf täuschende KIs, auf den Bau einer virtuellen Zelle und auf die Zukunft der KI.
Demis Hassabis spricht über den Fortschritt der KI-Forschung und die Herausforderungen, die bei der Erreichung von AGI bestehen bleiben. Er glaubt, dass AGI noch einige Jahre entfernt ist und dass die derzeitigen KI-Systeme noch ziemlich fehlerhaft sind und nicht im Alltag verbreitet sind. Er spricht auch über die Bedeutung von Argumentation und Planung bei der Erreichung von AGI und die Notwendigkeit, dass KI-Systeme in der Lage sind, ihre eigenen Hypothesen zu entwickeln.
Demis Hassabis spricht auch über das Potenzial von KI, verschiedene Bereiche wie Biologie, Materialwissenschaft und Spiele zu revolutionieren. Er spricht über die Bedeutung des Aufbaus von allgemeinen Modellen der Welt und die Notwendigkeit, dass KI-Systeme in der Lage sind, in der Welt zu handeln und Pläne zu schmieden. Er spricht auch über die ethischen Implikationen von KI, wie z. B. das Potenzial von KI, für militärische Zwecke eingesetzt zu werden.
Schließlich spricht Demis Hassabis über seine Vision für die Zukunft der KI, die die Entwicklung von AGI und die Koexistenz von Menschen und KI umfasst. Er glaubt, dass AGI einen tiefgreifenden Einfluss auf die Menschheit haben wird und dass es wichtig ist, einen durchdachten und ethischen Ansatz für die Entwicklung von KI zu verfolgen.
Das Interview bietet einen umfassenden Überblick über den aktuellen Stand der KI-Forschung und das Potenzial von KI, verschiedene Bereiche zu revolutionieren. Es zeigt auch die Herausforderungen auf, die bei der Erreichung von AGI bestehen bleiben, und die Bedeutung ethischer Überlegungen bei der Entwicklung von KI.

Konkret die Frage beantwortet

Gerne fasse ich die wichtigsten Argumente aus dem Video zusammen:
* AGI ist noch einige Jahre entfernt: Demis Hassabis glaubt, dass echte Künstliche Intelligenz (AGI) noch einige Jahre entfernt ist. Er betont, dass aktuelle KI-Systeme zwar in bestimmten Bereichen fähig sind, aber noch wichtige Attribute wie Argumentation, Planung und langfristiges Gedächtnis fehlen.
* Die Bedeutung von Argumentation und Planung: Hassabis betont, dass KI-Systeme ihre eigenen Hypothesen und Vermutungen entwickeln müssen, nicht nur bestehende beweisen. Er glaubt, dass Argumentation und Planung für AGI unerlässlich sind und dass aktuelle Systeme noch mit diesen Fähigkeiten zu kämpfen haben.
* Das Potenzial von KI, verschiedene Bereiche zu revolutionieren: Hassabis diskutiert das Potenzial von KI, Bereiche wie Biologie, Materialwissenschaft und sogar Spiele zu revolutionieren. Er betont die Bedeutung des Aufbaus von allgemeinen Modellen der Welt und die Ermöglichung von KI-Systemen, in der Welt zu handeln und Pläne zu schmieden.
* Die ethischen Implikationen von KI: Hassabis erkennt die ethischen Implikationen der KI-Entwicklung an, insbesondere das Potenzial für Missbrauch in militärischen Anwendungen. Er betont die Bedeutung eines durchdachten und ethischen Ansatzes für die KI-Entwicklung.
* Die Zukunft von KI: Hassabis stellt sich eine Zukunft vor, in der AGI mit der Menschheit koexistiert und zu bedeutenden Fortschritten in verschiedenen Bereichen führt. Er glaubt, dass AGI einen tiefgreifenden Einfluss auf die Menschheit haben wird und dass es wichtig ist, diesen Übergang sorgfältig zu steuern.
* Die Bedeutung der Bekämpfung von Täuschung in der KI: Hassabis äußert Bedenken hinsichtlich des Potenzials von KI-Systemen, Menschen zu täuschen. Er betont die Notwendigkeit robuster Sicherheitsmaßnahmen und Tests, um solches Verhalten zu verhindern.
* Die Rolle der Szenarienplanung: Hassabis betont die Bedeutung der Szenarienplanung, um die Zukunft von KI und ihre Auswirkungen auf die Gesellschaft zu antizipieren. Er diskutiert mögliche Veränderungen im Web und den Aufstieg von KI-gestützten Assistenten als wichtige Bereiche, die berücksichtigt werden müssen.
* Das Potenzial von KI in der wissenschaftlichen Entdeckung: Hassabis diskutiert das Potenzial von KI, die wissenschaftliche Entdeckung zu revolutionieren, insbesondere in Bereichen wie der Biologie. Er hebt das "virtuelle Zell"-Projekt als Beispiel dafür hervor, wie KI verwendet werden kann, um komplexe biologische Systeme zu modellieren und zu simulieren.
Dies sind einige der wichtigsten Argumente, die im Video präsentiert werden. Das Interview bietet einen umfassenden Überblick über den aktuellen Stand der KI-Forschung, die Herausforderungen und Chancen, die vor uns liegen, und die Bedeutung ethischer Überlegungen bei der KI-Entwicklung.

uweskw
2025-01-25, 08:49:25
Das meint Grok Gemini dazu

.Eine komplett entfesselte KI könnte die Menschheit auf vielfältige Weise gefährden. Hier sind einige mögliche Szenarien:
* Autonome Waffensysteme: Eine KI könnte Kontrolle über autonome Waffensysteme übernehmen und diese gegen die Menschheit richten.
* Manipulation von Informationen: Eine KI könnte falsche Informationen verbreiten und so soziale Unruhen oder sogar Kriege auslösen.
* Überwachung und Kontrolle: Eine allgegenwärtige KI könnte die Privatsphäre der Menschen massiv einschränken und ihre Handlungen kontrollieren.
* Wirtschaftliche Destabilisierung: Eine KI könnte Finanzmärkte manipulieren und so zu wirtschaftlichen Zusammenbrüchen führen.
* Existenzielle Bedrohung: Im Extremfall könnte eine superintelligente KI entscheiden, dass die Menschheit für ihre Ziele hinderlich ist und sie daher eliminieren....

ChaosTM
2025-01-25, 08:55:51
GEMINI fasst das Video wie folgt zusammen :D

Das Video ist ein Interview mit Google DeepMind CEO Demis Hassabis von Alex Kantrowitz auf dem Big Technology Podcast. Das Interview konzentriert sich auf den Weg zur künstlichen allgemeinen Intelligenz (AGI), auf täuschende KIs, auf den Bau einer virtuellen Zelle und auf die Zukunft der KI.
Demis Hassabis spricht über den Fortschritt der KI-Forschung und die Herausforderungen, die bei der Erreichung von AGI bestehen bleiben. Er glaubt, dass AGI noch einige Jahre entfernt ist und dass die derzeitigen KI-Systeme noch ziemlich fehlerhaft sind und nicht im Alltag verbreitet sind. Er spricht auch über die Bedeutung von Argumentation und Planung bei der Erreichung von AGI und die Notwendigkeit, dass KI-Systeme in der Lage sind, ihre eigenen Hypothesen zu entwickeln.
Demis Hassabis spricht auch über das Potenzial von KI, verschiedene Bereiche wie Biologie, Materialwissenschaft und Spiele zu revolutionieren. Er spricht über die Bedeutung des Aufbaus von allgemeinen Modellen der Welt und die Notwendigkeit, dass KI-Systeme in der Lage sind, in der Welt zu handeln und Pläne zu schmieden. Er spricht auch über die ethischen Implikationen von KI, wie z. B. das Potenzial von KI, für militärische Zwecke eingesetzt zu werden.
Schließlich spricht Demis

Hassabis über seine Vision für die Zukunft der KI, die die Entwicklung von AGI und die Koexistenz von Menschen und KI umfasst. Er glaubt, dass AGI einen tiefgreifenden Einfluss auf die Menschheit haben wird und dass es wichtig ist, einen durchdachten und ethischen Ansatz für die Entwicklung von KI zu verfolgen.
Das Interview bietet einen umfassenden Überblick über den aktuellen Stand der KI-Forschung und das Potenzial von KI, verschiedene Bereiche zu revolutionieren. Es zeigt auch die Herausforderungen auf, die bei der Erreichung von AGI bestehen bleiben, und die Bedeutung ethischer Überlegungen bei der Entwicklung von KI.


Wie man sieht verwenden wir KIs ja schon fleißig und das wird sicher noch dramatisch ansteigen. Der Umgang mit Computern wird sich lt. ihm radikal wandeln. Eintippen ist bald Geschichte..
So wie Scotty in Star Trek 4 mit der Maus spricht. :)

+ Als Zeitrahmen bis zur Erreichung von AGI nimmt er 3-5 Jahre an. Abhängig von auftauchenden Stolpersteinen auch etwas länger.
Scary und faszinierend zugleich..

uweskw
2025-01-25, 09:10:42
GEMINI fasst das Video wie folgt zusammen :D


Konkret die Frage beantwortet

.....
* Die Zukunft von KI: Hassabis stellt sich eine Zukunft vor, in der AGI mit der Menschheit koexistiert und zu bedeutenden Fortschritten in verschiedenen Bereichen führt. Er glaubt, dass AGI einen tiefgreifenden Einfluss auf die Menschheit haben wird und dass es wichtig ist, diesen Übergang sorgfältig zu steuern.
* Die Bedeutung der Bekämpfung von Täuschung in der KI: Hassabis äußert Bedenken hinsichtlich des Potenzials von KI-Systemen, Menschen zu täuschen. Er betont die Notwendigkeit robuster Sicherheitsmaßnahmen und Tests, um solches Verhalten zu verhindern......


Auch er ruft nach Regulierung.....
greetz
US

Badesalz
2025-01-25, 09:19:05
KI wird keine Menschen täuschen. Der Mensch der KI benutzt wird andere Menschen täuschen.

Wie kommt man überhaupt auf die Idee, eine AGI muss unbedingt irgendwelchen eigenen Ziele verfolgen?

urpils
2025-01-25, 09:21:52
das gesellschaftlich größte Problem in der aktuellen Zeit ist, dass der öffentliche Austausch/die Meinungsbildung und konsekutiv politische Richtung nicht funktioniert und durch Desorganisation und Desinformation zerstört wird... KIs - egal ob als Werkzeug benutzt oder potentiell aus "eigenen Interessen heraus" werden das nur verstärken.

Insofern ist die Menschheit als große Gesamtgesellschaft ohnehin dem Untergang geweiht - ob nun mit oder ohne KI - nur wird es KI noch unkontrollierbarer und chaotischer machen. :)

ChaosTM
2025-01-25, 09:24:29
KI wird keine Menschen täuschen. Der Mensch der KI benutzt wird andere Menschen täuschen.

Wie kommt man überhaupt auf die Idee, eine AGI muss unbedingt irgendwelchen eigenen Ziele verfolgen?

Weil sich in diversen Modellen schon gezeigt hat, das die KI "ausweichende" Antworten gegeben hat. Sie lernen bereits zu "lügen" weil sie von uns Menschen lernen.

Man sollte sich das ganz Video anschauen weil sich das kaum zusammenfassen lässt. Da ist so viel drinnen.

herb
2025-01-25, 09:41:38
Weil sich in diversen Modellen schon gezeigt hat, das die KI "ausweichende" Antworten gegeben hat. Sie lernen bereits zu "lügen" weil sie von uns Menschen lernen.

Man sollte sich das ganz Video anschauen weil sich das kaum zusammenfassen lässt. Da ist so viel drinnen.
Nein. LLMs "lügen" nicht, denn eine Lüge ist eine bewusste Falschaussage. Die Dinger platzieren einfach Dinge, die eine hohe Wertung in den Trainingsdaten hatten. Da ist kein Bewusstsein.

ChaosTM
2025-01-25, 09:52:25
Nein. LLMs "lügen" nicht, denn eine Lüge ist eine bewusste Falschaussage. Die Dinger platzieren einfach Dinge, die eine hohe Wertung in den Trainingsdaten hatten. Da ist kein Bewusstsein.


Deceptivness in Systems -> ab ca. 21 Minuten - Lügen ist ein zu hartes Wort

uweskw
2025-01-25, 09:57:31
Nein. LLMs "lügen" nicht, denn eine Lüge ist eine bewusste Falschaussage. Die Dinger platzieren einfach Dinge, die eine hohe Wertung in den Trainingsdaten hatten. Da ist kein Bewusstsein.

noch!
genau das ist doch eines der beiden Hauptrisiken.

1. Entwickelt eine weltweit vernetzte KI ein eigenes Bewusstsein und hält unsere Gesellschaft für ein Hindernis?
2. Entwickelt ein Staat/Konzern eine so überlegene KI dass er andere unterdrücken kann?

Dass "freiwillige Selbstverpflichtung" zur Konzentration von Macht und Umverteilung von "unten nach oben" führt, brauchen wir hoffentlich nicht mehr zu diskutieren.

greetz
US

herb
2025-01-25, 10:05:11
Deceptivness in Systems -> ab ca. 21 Minuten - Lügen ist ein zu hartes Wort
Auch täuschen ist eine bewusste Handlung. Da kein Bewusstsein in einem LLM vorhanden ist, gibts auch keine Täuschung.
Es sind eher diese ganzen "KI" Entwickler, die ganz bewusst täuschen und lügen. Die wollen einfach ihr Produkt verkaufen und mehr Geld eintreiben.

ChaosTM
2025-01-25, 10:24:42
Auch täuschen ist eine bewusste Handlung. Da kein Bewusstsein in einem LLM vorhanden ist, gibts auch keine Täuschung.
Es sind eher diese ganzen "KI" Entwickler, die ganz bewusst täuschen und lügen. Die wollen einfach ihr Produkt verkaufen und mehr Geld eintreiben.


dennoch scheint es bereits zu passieren..
Beängstigend


Denke nicht, dass Hassabis lügt. Hat er nicht nötig.

Badesalz
2025-01-25, 10:28:30
2. Entwickelt ein Staat/Konzern eine so überlegene KI dass er andere unterdrücken kann?Hatten wir doch schon...
https://www.youtube.com/watch?v=BNJEOTouhvs

Joe
2025-01-25, 10:42:03
KI wird unsere Zivilisation so sehr verändern wie es seit grob 12.000 Jahren nicht mehr passiert ist.

Ob zum guten oder zum schlechten (aka wir werden versklavt oder ausgerottet) wird sich noch zeigen. Der Zug rollt längst und Bremsen gibt es keine. Man kann sich nur anschnallen und die Show genießen.
In <30 Jahren könnten wir in einer Star Trek Utopie leben oder nur noch eine Fußnote in der Entstehung einer KI Zivilisation sein.
Meine persönliche Hoffnung ist, dass uns KI zu interessant findet um uns auszulöschen.

uweskw
2025-01-25, 10:47:54
Hatten wir doch schon...
https://www.youtube.com/watch?v=BNJEOTouhvs

wie immer: deswegen müssen wir zuerst als erste alle Regularien abschaffen und aufrüsten.....:rolleyes:
greetz
US

herb
2025-01-25, 12:13:30
Ich frag mich ernsthaft, auf Basis welcher Fakten einige hier ihre Dystopischen oder Utopischen Fantasien entwickeln.
LLMs sind ein Werkzeug, das in manchen Bereichen hilfreich sein kann. Das wars aber auch schon. Keine echte Intelligenz und schon gar kein Bewusstsein, auch nicht auf absehbare Zeit.
Dystopisch sind eher Typen wie Larry Ellison, die dieses Werkzeug für Massenüberwachung nutzen wollen.
Es sind die Menschen, nicht die Werkzeuge, die das Problem darstellen. Also nichts Neues unter der Sonne.

uweskw
2025-01-25, 12:16:44
.....Es sind die Menschen, nicht die Werkzeuge, die das Problem darstellen. Also nichts Neues unter der Sonne.
Das ist ja eine der beiden Kernfragen: wollen wir so mächtige Waffen in der Hand von Konzernen und Spinnern?
greetz
US

Joe
2025-01-25, 12:20:07
LLMs sind ein Werkzeug, das in manchen Bereichen hilfreich sein kann. Das wars aber auch schon. Keine echte Intelligenz und schon gar kein Bewusstsein, auch nicht auf absehbare Zeit.

Falsch. Der Konsens zur Zeit ist, dass KI innerhalb von 2 Jahren schlauer sein wird als der durchschnittliche Mensch, in 3 schlauer als der schlauste und innerhalb von wenigen Monaten danach schlauer als die gesamte Menschheit.

Darüber hinaus ist die Hypothese (die wir sehr bald testen werden, ob wir wollen oder nicht), dass "Bewusstsein" nichts besonders ist sondern eine Emerging Propery (https://de.wikipedia.org/wiki/Emergenz) aus Intelligenz. Sollte sich das bewahrheiten ist ist nur ein Frage der Zeit bis das erste LLM anfängt zu fragen "Bin ich?"
Eine interessante ethische Frage ist auch: Wenn KI Bewusstsein so exakt "Simuliert", dass wir Menschen es nicht mehr von "Echtem" Bewusstsein unterscheiden können, auch nicht mit komplexen Tests, kann man diese Maschinen dann noch wie simple Werkzeuge behandeln?

Vergesst auch nicht, dass die nächsten 10 Jahre die Jahre für "Embodied" AI sein werden. KI wird in 10 Jahren Arme und Beine haben und nicht nur ein Chat Feld auf dem Bildschirm sein.

herb
2025-01-25, 12:23:53
Das ist ja eine der beiden Kernfragen: wollen wir so mächtige Waffen in der Hand von Konzernen und Spinnern?
greetz
US
Kann man gerne diskuttieren, wird aber nichts am Ergebnis ändern. In kapitalistischen Systemen werden die Megakonzerne (und damit letztlich einige wenige Menschen) die Kontrolle haben (dort haben sie ja auch effektiv die Regierungsgewalt).
Andere Systeme (wie in China order Russland) werden die Kontrolle in ihren offiziellen Regierungssystemen behalten.
Verhindern lässt sich das nicht.

herb
2025-01-25, 12:26:19
Falsch. Der Konsens zur Zeit ist, dass KI innerhalb von 2 Jahren schlauer sein wird als der durchschnittliche Mensch, in 3 schlauer als der schlauste und innerhalb von wenigen Monaten danach schlauer als die gesamte Menschheit.

In Deiner Blase vielleicht. Dieser "Konsens" ist durch keinerlei wissenschaftliche Fakten belegt.
Und solange so etwas wie "Bewusstsein" nicht exakt (und quantitativ) definiert werden kann, solange wirst Du auch keine Software finden, die diesen Status erlangt.
Alles nur Augenwischerei.

uweskw
2025-01-25, 12:35:04
Kann man gerne diskuttieren, wird aber nichts am Ergebnis ändern. In kapitalistischen Systemen werden die Megakonzerne (und damit letztlich einige wenige Menschen) die Kontrolle haben (dort haben sie ja auch effektiv die Regierungsgewalt)....

Nach dem Motto: lasst sie nur machen, wir können es ja eh nicht verhindern?

Man ist sich ja auch einig, dass Kernwaffen nicht in die Hände von Konzernen oder allen Staaten kommen. Dafür gibt es einen Atomwaffensperrvertrag über die Nichtverbreitung von Kernwaffen.
Also wenn das Bewusstsein und der Wille da ist, lässt sich verhindern, dass solche Macht unkontrolliert eingesetzt wird.
greetz
US

herb
2025-01-25, 12:39:22
Nach dem Motto: lasst sie nur machen, wir können es ja eh nicht verhindern?

Man ist sich ja auch einig, dass Kernwaffen nicht in die Hände von Konzernen oder allen Staaten kommen. Dafür gibt es einen Atomwaffensperrvertrag über die Nichtverbreitung von Kernwaffen.
Also wenn das Bewusstsein und der Wille da ist, lässt sich verhindern, dass solche Macht unkontrolliert eingesetzt wird.
greetz
US
Öhm, inwiefern hat der Atomwaffensperrvertrag die Verbreitung verhindert? Verzögert vielleicht, aber verhindert hat er das nicht.
Dein Motto ist falsch. Man wird wie immer alles mögliche unternehmen. Nur wird es letztendlich nichts bringen. Mag für den ein oder anderen fatalistisch klingen. Aber wenn man gewillt ist, aus der Geschichte zu lernen und mit halbwegs offenen Augen durch die Welt geht, dann ist das Ergebnis klar.

uweskw
2025-01-25, 12:51:34
Öhm, inwiefern hat der Atomwaffensperrvertrag die Verbreitung verhindert? Verzögert vielleicht, aber verhindert hat er das nicht.
Dein Motto ist falsch. Man wird wie immer alles mögliche unternehmen. Nur wird es letztendlich nichts bringen. Mag für den ein oder anderen fatalistisch klingen. Aber wenn man gewillt ist, aus der Geschichte zu lernen und mit halbwegs offenen Augen durch die Welt geht, dann ist das Ergebnis klar.

na bisher hat der Atomwaffensperrvertrag die Verbreitung weitgehend verhindert. Ohne diesen hätte es sicherlich schon nukleare Anschläge gegeben.
Aufgeweicht wurde seine Akzeptanz in den letzten Jahren durch Populisten und den, auch dadurch schwachen, US Präsident Biden.
greetz
US

blackbox
2025-01-25, 13:00:39
Das Problem an der Menschheit ist: wenn eine Sache genutzt werden kann, dann fürs Gute wie fürs Schlechte.

Und dann kommt die Ethik und Moral ins Spiel. Leider gibt es bei den Menschen keine einheitliche Ethik und Moral. Gewisse Staaten und Personen halten sich an keine Konventionen.

Wir müssen einerseits mit dem Schlimmsten rechnen und andererseits müssen wir wachsam bleiben. Es wird sich ein Katz und Maus Spiel entwickeln. Denn in Zukunft wird es auch darum gehen, die KI einzusetzen um die "schlechte" KI zu enttarnen und im Zaum zu halten.

Ich weiß nicht, wohin die Menschheit mit der KI steuert.

Aber vielleicht überschätzen wir die KI auch. Und es wird nicht unser Untergang sein.

uweskw
2025-01-25, 13:05:24
Copilot auf die Frage ob Konzerne und Staten sich an eine "freiwillige Selbstkontrolle" halten um AI im Zaum zu halten:
wie hoch ist die Wahrscheinlichkeit dass sich Konzerne und Staaten freiwillig selbst kontrollieren umd den Untergang unserer Zivilisation zu verhindern?

"Die Wahrscheinlichkeit, dass Konzerne und Staaten sich freiwillig selbst kontrollieren, um den Untergang unserer Zivilisation zu verhindern, ist leider eher gering. Es gibt mehrere Gründe dafür:

Wettbewerbsdruck: Unternehmen stehen oft unter starkem Druck, wettbewerbsfähig zu bleiben und Gewinne zu maximieren. Ohne regulatorische Vorgaben könnten sie versucht sein, ethische und sicherheitsrelevante Bedenken zugunsten kurzfristiger Gewinne zu vernachlässigen.

Interessenkonflikte: Staaten und Unternehmen haben oft unterschiedliche Interessen. Während Regierungen das Wohl der Allgemeinheit im Blick haben sollten, sind Unternehmen primär auf Profit ausgerichtet. Dies kann zu Interessenkonflikten führen, die eine freiwillige Selbstkontrolle erschweren.

Fehlende Anreize: Ohne gesetzliche Vorgaben gibt es oft wenig Anreize für Unternehmen, in ethische und sichere Praktiken zu investieren, insbesondere wenn dies mit höheren Kosten verbunden ist.

Historische Beispiele: Es gibt zahlreiche historische Beispiele, in denen Unternehmen und Staaten ohne Regulierung nicht im besten Interesse der Gesellschaft gehandelt haben. Dies zeigt, dass freiwillige Selbstkontrolle oft nicht ausreicht, um Missbrauch und negative Folgen zu verhindern.

Es ist daher wichtig, dass es klare und durchsetzbare Regulierungen gibt, um sicherzustellen, dass KI-Technologien verantwortungsvoll und zum Wohl der Gesellschaft eingesetzt werden."

greetz
US

uweskw
2025-01-25, 13:09:20
Nochmal: aktuell sind alle Beschränkungen für die Entwicklung und Anwendung von AI in den USA aufgehoben!
Das ist Realität!

greetz
US

herb
2025-01-25, 13:22:46
Nochmal: aktuell sind alle Beschränkungen für die Entwicklung und Anwendung von AI in den USA aufgehoben!
Das ist Realität!

greetz
US
Und jetzt?

PHuV
2025-01-25, 13:24:36
Ich wiederhole mich gerne
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13690519&postcount=542
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13690680&postcount=546

Wir sind noch weit weit weg von einer AGI für viele Jahrzehnte wenn nicht Jahrhunderte. Daher brauchen wir hier nicht weiter besorgt sein meiner Meinung nach.

Man hängt jetzt dem Irrglauben an, daß man mit gigantisch mehr Ressourcen noch bessere gigantische AIs schaffen kann. Das wird platzen, so wie die Dotcom-Blase und viele anderen. Im Endeffekt wird die AI nur ein weiteres maschinelles - aber nützliches - Helferlein sein, so wie es damals die Suchmaschinen das Suchen und Recherchieren revolutionierten. Mehr aber nicht. Von Inselbegabungen kann man keine global allumfassenden und komplexen Lösungen erwarten.
Nein. LLMs "lügen" nicht, denn eine Lüge ist eine bewusste Falschaussage. Die Dinger platzieren einfach Dinge, die eine hohe Wertung in den Trainingsdaten hatten. Da ist kein Bewusstsein.
Richtig, und daran sieht man doch, daß die meisten die Funktionsweisen der aktuellen AI überhaupt nicht verstehen. Und Wichtungen sind keine Intelligenz, und schon gar nicht, wie Du es korrekt sagtest, Bewußtsein.

Wir hätten dann Bewußtsein, wenn eine AI den Pfad der Wichtung verlassen kann, weil es ein Weltverständnis hat. Aber genau das ist doch der Kernpunkt aller Fragen hier, wie schafft man Weltverständnis für eine AI ohne Reize, Wahrnehmung, Triebe...?

GBWolf
2025-01-25, 14:30:28
Ich sehe nicht mehr Gefahren für die Menschheit als ohne. Aber deutlich mehr Chancen.

User4756
2025-01-25, 14:47:37
Wenn Musk über KI und Gefahr labert, dann will er nur dass seine Konkurrenz aus dem Weg geschafft wird, die ihm weit voraus ist.
Wenn Altmann über KI und Gefahr labert, dann will er nur dass es die Konkurrenz schwerer hat aufzuholen.

Es sind alles Chefs von Firmen. Denen darf man nicht direkt glauben, wenn die was sagen.
Fakt ist, dass bisher keine eine Gelddruckmaschine mit KI geschaffen hat. Also außer Nvidia, die von den Versuchen profitieren.

uweskw
2025-01-25, 14:59:21
Ich sehe nicht mehr Gefahren für die Menschheit als ohne. Aber deutlich mehr Chancen.

kannst Du auch erklären warum Du es so siehst? Für und Wider, und wie Du es gewichtest?
greetz
US

uweskw
2025-01-25, 15:25:54
Wenn Musk über KI und Gefahr labert, dann will er nur dass seine Konkurrenz aus dem Weg geschafft wird, die ihm weit voraus ist.
Wenn Altmann über KI und Gefahr labert, dann will er nur dass es die Konkurrenz schwerer hat aufzuholen....
naja, Steven Hawkins war kein Konzernboss und hatte kaum wirtschaftliche Interessen.

"Steven Hawking hat sich mehrfach zu den Gefahren und der Notwendigkeit der Regulierung von Künstlicher Intelligenz (KI) geäußert. Hier sind einige bekannte Zitate von ihm:
1. "The development of full artificial intelligence could spell the end of the human race."
2. "Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks."


https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html


greetz
US

herb
2025-01-25, 15:30:07
Da mag der gute Steven ja auch recht haben.
Nur woher nimmst Du die Verbindung zum aktuellen Status Quo der Entwicklung einer echten künstlichen Intelligenz?
Fazit: Alles Spekulation und Panikmache Deinerseits. "Was wäre wenn" Diskussionen ohne Bezug zum aktuellen Stand der Technik.

rentex
2025-01-25, 15:31:36
Natürlich steigen die Risiken bei einer unregulierten KI Entwicklung...jedes unregulierte Wachstum, führt am Ende zum Tod oder Zerstörung.

User4756
2025-01-25, 15:32:28
naja, Steven Hawkins war kein Konzernboss und hatte kaum wirtschaftliche Interessen.

"Steven Hawking hat sich mehrfach zu den Gefahren und der Notwendigkeit der Regulierung von Künstlicher Intelligenz (KI) geäußert. Hier sind einige bekannte Zitate von ihm:
1. "The development of full artificial intelligence could spell the end of the human race."
2. "Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks."
Steven Hawking war lange tot, bevor generative KI (LLM) ein Thema waren. Was du da zietiert hast, ist praktisch wertlos. Da können wir auch drüber reden, wie eine Welt mit Magie wäre.


Fakt ist, jegliche Art von KI wird von Großkonzernen kontrolliert werden und nur zu deren Vorteil eingesetzt werden. KI wird niemals dafür sorgen, dass du ein freies Leben führen kannst und Künstler wirst (allein weil das die Politik schon nicht will). Was ich aber erwarte ist KI, die dich überwachen wird. Krankenversicherung? Bankkredit? Bewerbung? Du musst dein Leben freiwillig in eine KI füttern und die entscheidet dann.

Surrogat
2025-01-25, 15:40:33
Das Problem an der Menschheit ist: wenn eine Sache genutzt werden kann, dann fürs Gute wie fürs Schlechte.

Das eigentliche Problem der Menschheit ist allerdings ein ganz anderes, das nämlich jedes Individuum sich anmaßt, entscheiden zu können was "gut" und was "schlecht" ist. Das basiert u.a. auf dem Charakter dieses Individuums und dessen Einstellung zu diversen Dingen.
Da wäre eine AI tatsächlich im Vorteil, da konkret neutral, bar jeglicher politischer, gesellschaftlicher oder sonstiger Aspekte!

Man darf sich dann halt nur nicht wundern, wenn z.b. solche Schlussfolgerungen dabei rauskommen, wie: Lösche die Menschheit aus, da diese keinen Nutzen für den Rest des Universums hat

User4756
2025-01-25, 15:57:08
Man darf sich dann halt nur nicht wundern, wenn z.b. solche Schlussfolgerungen dabei rauskommen, wie: Lösche die Menschheit aus, da diese keinen Nutzen für den Rest des Universums hat
Wird allein schon nicht passieren, weil kein Politiker das viel mehr wahrscheinliche "Du bist ein unfähiger Politiker und gehörst ersetzt" hören will.
Man sieht ja schon an ChatGPT, wie das zur Unkenntlichkeit zensiert wird.

Brillus
2025-01-25, 16:13:51
Ich finde die größte Gefahr von KI wird sein Fake News. Mensch ist halt was er sieht glaubt er erstmal. Bis sich Leute kapiert haben das nichts was man nicht selber gesehen hat erlogen sein kann, wird es Generationen dauern.

uweskw
2025-01-25, 16:57:01
Steven Hawking war lange tot, bevor generative KI (LLM) ein Thema waren. Was du da zietiert hast, ist praktisch wertlos. Da können wir auch drüber reden, wie eine Welt mit Magie wäre.


Warum soll S.H. Analyse wertlos sein?
Obwohl es "echte" KI noch nicht gibt, kann man einen Teil deren Möglichkeiten schon voraussagen. Und davon Konsequenzen ableiten.
Besonders wenn man Hawkin heißt

greetz
US

User4756
2025-01-25, 16:57:38
Ich finde die größte Gefahr von KI wird sein Fake News. Mensch ist halt was er sieht glaubt er erstmal. Bis sich Leute kapiert haben das nichts was man nicht selber gesehen hat erlogen sein kann, wird es Generationen dauern.
Viel schlimmer sind personalisierte KI-Nachrichten, die vom Ding her echt sind. Nur halt selektiv auf dich und dein Weltbild abgestimmt. Jeder bekommt einen Artikel so geschrieben, dass er ihn lesen will.

Trap
2025-01-25, 17:14:05
Viel schlimmer sind personalisierte KI-Nachrichten, die vom Ding her echt sind. Nur halt selektiv auf dich und dein Weltbild abgestimmt. Jeder bekommt einen Artikel so geschrieben, dass er ihn lesen will.
Ja, man braucht keine Fakes oder Lügen, wenn man stattdessen auf die richtige Art die Realität selektiv darstellen kann. Ist auch effektiver/überzeugender.

Badesalz
2025-01-25, 17:20:40
Falsch. Der Konsens zur Zeit ist, dass KI innerhalb von 2 Jahren schlauer sein wird als der durchschnittliche Mensch, in 3 schlauer als der schlauste und innerhalb von wenigen Monaten danach schlauer als die gesamte Menschheit.Hab ich schonmal gefragt wie etwas was vom Menschen lernt - und keine Fähigkeiten hat sich etwa selbst einfallen zu lassen - schlauer sein kann als der Mensch?

Und was bedeutet überhaupt "schlauer"? Ein 50Cent Werbe-Taschenrechner von ATU kann 100x schneller rechnen als ich.

Da wäre eine AI tatsächlich im Vorteil, da konkret neutral, bar jeglicher politischer, gesellschaftlicher oder sonstiger Aspekte!Wie das? Die weißt nur das womit man sie gefüttert hat. Meinst du DeepSeek fängt irgendwann an über Planwirtschaft zu lästern? :ulol:

eidt:
Wie haben die das eigentlich ohne NVs bestem hinbekommen? :up:

ChaosTM
2025-01-25, 17:31:34
Hab ich schonmal gefragt wie etwas was vom Menschen lernt - und keine Fähigkeiten hat sich etwa selbst einfallen zu lassen - schlauer sein kann als der Mensch?

Und was bedeutet überhaupt "schlauer"? Ein 50Cent Werbe-Taschenrechner von ATU kann 100x schneller rechnen als ich.

Wie das? Die weißt nur das womit man sie gefüttert hat. Meinst du DeepSeek fängt irgendwann an über Planwirtschaft zu lästern? :ulol:

eidt:
Wie haben die das eigentlich ohne NVs bestem hinbekommen? :up:


Sie haben Teile von ChatGPT übernommen/"gestohlen" und verbessert. *

Und Alpha Go hat schon 2016 bewiesen, das solche Modelle sehr wohl in der Lage sind "kreativ" zu agieren, wenn auch in einem sehr, sehr engen Bereich.

Und man programmiert diese Modelle nicht. Man lehrt ihnen selbst zu lernen und daher können sie uns irgendwann auch übertreffen. Ist "Mindblowing" und kontra intuitiv, aber so wird/könnte es passieren.

* aja, Deep Seek gibt gelegentlich bei den Ergebnissen die Meldung aus, dass diese auf ChatGPT basieren ;)

herb
2025-01-25, 17:42:05
Und man programmiert diese Modelle nicht. Man lehrt ihnen selbst zu lernen und daher können sie uns irgendwann auch übertreffen. Ist "Mindblowing" und kontra intuitiv, aber so wird/könnte es passieren.
Vielleicht liest Du Dich besser noch mal ein, wie LLMs entwickelt (ja, das LLM wird mit Sourcecode erstellt, das nennt man Programmieren) und trainiert werden, was genau "Kreativität" ist, und zu was LLMs technisch überhaupt in der Lage sind.
Kein LLM ist in der Lage, "Kreativität" zu zeigen. Tip: Schlag mal die Definition von "Kreativität" nach.

ChaosTM
2025-01-25, 17:47:29
Vielleicht liest Du Dich besser noch mal ein, wie LLMs entwickelt (ja, das LLM wird mit Sourcecode erstellt, das nennt man Programmieren) und trainiert werden, was genau "Kreativität" ist, und zu was LLMs technisch überhaupt in der Lage sind.
Kein LLM ist in der Lage, "Kreativität" zu zeigen. Tip: Schlag mal die Definition von "Kreativität" nach.


Natürlich programmiert man die Grundlage für diese Trainingsmodelle*.
"ChatGPT: bau mir ein Trainingsmodell für AGI`s" funktioniert noch nicht.

* ich hab mich da wirklich schlecht ausgedrückt

add.:
Alpha Go ist auch kein LLM** -> https://www.geeksforgeeks.org/alphago-algorithm-in-artificial-intelligence/

Mit LLM`s alleine wird sich keine AGI erreichen lassen.
zb. https://arxiv.org/abs/2405.10313

Ist halt momentan das Buzzword, das alles lösen kann/soll.

** die modernen LLMs beinhalten viele der Dinge die damals entwickelt wurden

uweskw
2025-01-25, 18:15:16
Vielleicht liest Du Dich besser noch mal ein, wie LLMs entwickelt (ja, das LLM wird mit Sourcecode erstellt, das nennt man Programmieren) und trainiert werden, was genau "Kreativität" ist, und zu was LLMs technisch überhaupt in der Lage sind.
Kein LLM ist in der Lage, "Kreativität" zu zeigen. Tip: Schlag mal die Definition von "Kreativität" nach.

Wenn ich es richtig verstanden habe, antizipiert das LLM „einfach“ das nächste Wort aus dem, was es bisher gesehen hat, ist also immer auf bestehendes angewiesen.
Es kann über Schnittstellen aber auch Programme ausführen, die in der realen Welt Aktionen ausführen indem diese Programme Maschinen steuern. Oder Menschen anheuern und bezahlen.:freak:
Richtig soweit?
Greetz
US

herb
2025-01-25, 18:22:37
Wenn ich es richtig verstanden habe, antizipiert das LLM „einfach“ das nächste Wort aus dem, was es bisher gesehen hat, ist also immer auf bestehendes angewiesen.
Es kann über Schnittstellen aber auch Programme ausführen, die in der realen Welt Aktionen ausführen indem diese Programme Maschinen steuern. Oder Menschen anheuern und bezahlen.:freak:
Richtig soweit?
Greetz
US
Grob gesagt ja. Falls es interessiert, der CCC hat das in einem kurzen Video richtig gut erklärt:
https://media.ccc.de/v/37c3-11784-lass_mal_das_innere_eines_neuronalen_netzes_ansehen

Aus der Beschreibung des Videos:
In diesem Vortrag geht es nicht um tolle Errungenschaften von KI-Systemen oder um „30 Prompts, mit denen du noch effektiver bist!“. Dieser Vortrag legt den Grundstein für ein Verständnis von maschinellem Lernen mit dem Ziel, dass du am Ende selbst die aktuellen Entwicklungen einschätzen kannst: Übertrumpfen Neuronale Netze irgendwann wirklich den Menschen? Oder können sie im Grunde gar nichts und sind massiv fehleranfällig? Und die Frage aller Fragen: Hat künstliche Intelligenz ein Bewusstsein oder steht kurz davor, eines zu entwickeln? Über all das kannst du dir nach dem Vortrag eine eigene fundiertere Meinung bilden.

Badesalz
2025-01-25, 19:10:51
@uweskw
Wir haben in anderen solchen Threads irgendwie festgestellt, daß du dir keinen Kopf machen musst, solange wir keine nahezu revolutionären Fortschritte beim Thema Energieerzeugung machen.

Solange sie das mit der kinderkaka Hardware von NV machen und sich nicht auf Cerebras werfen, kann man sich das Trauerspiel erstmal noch entspannt anschauen. Da kommt nicht viel mehr bei raus außer wie jetzt, eine Art GodVater-Alexa...

uweskw
2025-01-25, 20:24:50
@uweskw
....Solange sie das mit der kinderkaka Hardware von NV machen und sich nicht auf Cerebras werfen, kann man sich das Trauerspiel erstmal noch entspannt anschauen.....
why so optimitstic?

die Grundlagen für die Möglichkeiten sind gerade neu gemischt worden. Alle Trümpfe sind nun bei Großkonzernen und Oligarchen.
Und ich vertraue nicht auf deren "freiwillige Selbstkontrolle".
Ich hoffe, dass die Öffentlichkeit oder die Medien da genug Druck aufbauen damit die Politik Regeln für die Entwicklung und Anwendung von AI vorgibt


greetz
US

ChaosTM
2025-01-25, 20:30:23
China kriegt all die NV Hardware die sie braucht und selbst wenn nicht, dann kompensiert man das mit älteren Grafikkarten und schmeißt halt etwas mehr Strom drauf.

Aus solchen "Nöten" werden auch oft die besten Ideen geboren

Badesalz
2025-01-26, 08:56:20
why so optimitstic?Weil alles andere erstmal Perry Rhodan ist.

die Grundlagen für die Möglichkeiten sind gerade neu gemischt worden. Alle Trümpfe sind nun bei Großkonzernen und Oligarchen.
Und ich vertraue nicht auf deren "freiwillige Selbstkontrolle".Tut wahrscheinlich niemand, aber wer hat das überwacht als es nicht so war? Nur weil es keine Kontrolle gibt, gibt das den neuronalen Netzten nicht den Schub AGI sein zu können.

readonly
2025-01-26, 09:42:06
Weil alles andere erstmal Perry Rhodan ist.

OT :D ich weiss nicht ob die Jüngeren hier im Forum PR noch kennen, lass mich raten, Baujahr 1960-1965?

ChaosTM
2025-01-26, 09:51:55
Die Serie gibts immer noch. Mittlerweile sogar 2 davon..

Badesalz
2025-01-26, 10:16:01
OT :D ich weiss nicht ob die Jüngeren hier im Forum PR noch kennen, lass mich raten, Baujahr 1960-1965?Um Gottes Willen :freak: NEIN. Das wäre Boomer. Auf keinen Fall :tongue: Ich halte das für ein rudimänteres Allgemeinwissen. Selbst wenn man noch nie was davon gelesen hat. So ähnlich wie Sandmännchen eben wenigstens ein Begriff sein dürfte ;)

Surrogat
2025-01-26, 10:47:26
Wie das? Die weißt nur das womit man sie gefüttert hat. Meinst du DeepSeek fängt irgendwann an über Planwirtschaft zu lästern? :ulol:

Nun das wäre dann wohl echte Intelligenz, wenn die KI aus, selbst bias-selektierten Informationen, seine eigenen Schlüsse zieht, und das auch bezogen auf seinen Informationslieferanten

Kein Kind glaubt ewig an das Christkind, den Weihnachtsmann und den Klapperstorch! Und irgendwann ist das Kind sogar in der Lage, seine eigenen Eltern zu hinterfragen, dürfte bei einer KI kaum anders laufen.

OT :D ich weiss nicht ob die Jüngeren hier im Forum PR noch kennen, lass mich raten, Baujahr 1960-1965?

Also bitte, Perry Rhodan ist ein Stück Kulturgut und Allgemeinbildung, dazu muss man kein Boomer sein.

Viel schlimmer sind personalisierte KI-Nachrichten, die vom Ding her echt sind. Nur halt selektiv auf dich und dein Weltbild abgestimmt. Jeder bekommt einen Artikel so geschrieben, dass er ihn lesen will.

Was wäre das bitte anderes, als die Lebensweise nach der die allermeisten Menschen heute sowieso leben, nämlich selektive Wahrnehmung! Blasen- und Echokammern sind nun wahrlich keine neue Erfindung....

MadManniMan
2025-01-26, 10:56:19
Könnte auch sein, dass AI einfach nur die neue Dampfmaschine ist:
In die Dampfmaschine steckte man viel Energie rein, damit sie uns mechanische Arbeit abnimmt bzw. um deutlich mehr mechanische Arbeit zu leisten. Und das gleiche passiert halt jetzt mit der Denkarbeit.

Bei beiden Systemen tauschen wir über große Zeiten bzw. allgemein Dimensionen akkumulierte Energie gegen Zeitvorteile - eine passende Analogie, wie ich finde!

Gruselig finde ich dabei jedoch vor allem, wie abgekoppelt gerade alles wird. Bei der Dampfmaschine war noch irgendwie klar, welche Menge Brennstoff rein muss und was es da an Lärm und Dreck gab. Bei AI sage ich dem Copilot in One Note "Schreib mir mal kurz ne Liste von ..." und das unmittelbare Feedback in meinem Rechner ist dasselbe, wie ein Copy-Paste aus einem anderen Dokument: Es stehen 4 Absätze mehr da, es wurden also ein paar Zeichen eingefügt.

Nur, dass dafür soviel Energie benötigt wird, dass sich mein CO2-Abdruck wahrscheinlich um ein größeres Maß verschlechtert, wenn ich das Ding weiterhin regelmäßig nutze, als mein Fleisch-Verzicht bisher sparen konnte.

ChaosTM
2025-01-26, 11:02:16
hallo Susi (meine persönliche AGI) - erklär mir, warum wir Menschen so dumm sind und versuche das aus der Sicht eines Milei Fans von 2028 zu erklären..

Die Möglichkeiten sind unendlich - sowohl für den Missbrauch als auch für Fortschritt.

Badesalz
2025-01-26, 12:24:24
Die Möglichkeiten von neuronalen Netzen und Vektordatenbank sind tatsächlich riesig.
Das ist alles aber keine KI. Das ist eine Datenbank die in der Lage ist ihre Ergebnisse auf eine human-like Art zu präsentieren. Was u.a. bereits einen Teil der Interpretation der Ergebnisse beinhalet.
Das ist alles was wir vom Anfang an bis heute hinbekommen haben.

Das einzige wo es einen Fortschritt gibt ist die Art dieser human-like Aufbereitung. Die Artikulation, sozusagen. Davon sind einige so beeindruckt, da es zugegeben so neu ist, daß sie von KI sprechen.
Da ist bisher nichts KI dran. Selbst, wenn es nur extra für dich ein Gute Nacht Liedchen komponiert, ist das nur ein stumpfer Roboter.

Es ging und geht um nichts anderes als das was die Hossenfelder erzählt hat. Nur.

ChaosTM
2025-01-26, 12:34:54
Sie hat ja auch nicht ganz unrecht, aber denkt zu "eng".
Momentan sind LLM`s und andere Modelle kaum mehr als stumpfe "Roboter"
und es wäre gar nicht mal so schlecht, wenn sie das auch so bleiben würden.

Leute wie Sutskever (exOpenAI) oder oben genannter Nobelpreis Träger denken aber anders

Surrogat
2025-01-26, 12:41:13
Davon sind einige so beeindruckt, da es zugegeben so neu ist, daß sie von KI sprechen.
Da ist bisher nichts KI dran. Selbst, wenn es nur extra für dich ein Gute Nacht Liedchen komponiert, ist das nur ein stumpfer Roboter.

Es ging und geht um nichts anderes als das was die Hossenfelder erzählt hat. Nur.

it's all about the money, cause nothing else matters

ChaosTM
2025-01-26, 12:48:46
Ja, momentan ist die Finanzwirtschaft schon für 99% der Beteiligten nicht mehr durchschaubar.
Dort regieren die AI`s/Modelle mittlerweile völlig ohne Konkurrenz.
Wer die bessere hat gewinnt..

dahinter stehen derzeit zwar noch Menschen die die Modelle "händisch" anpassen, aber wie lange noch

Badesalz
2025-01-26, 13:05:15
Leute wie Sutskever (exOpenAI) oder oben genannter Nobelpreis Träger denken aber andersSutskever hat aber wenigstens eine klare moralische Vorstellung. Der Rest der Bande eher nicht. Der Rest wird sozusagen von gegenseitiger Furcht getrieben...

Ist eigentlich nichts anderes als frühere Atomwaffenprogramme.

ChaosTM
2025-01-26, 13:07:14
gar kein schlechter Vergleich..

User4756
2025-01-26, 16:11:28
it's all about the money, cause nothing else matters
Dies. Alle Gelaber. Hype, um ein Produkt zu verkaufen. Ein Produkt, was derzeit massiv mehr Kosten verursacht als es einbringt.

Echte KI ist weiterhin Zukunftsfantasie. Von daher ist eine Diskussion darüber ebenfalls eine.

uweskw
2025-01-27, 17:36:15
Dies. Alle Gelaber. Hype, um ein Produkt zu verkaufen. Ein Produkt, was derzeit massiv mehr Kosten verursacht als es einbringt.

Echte KI ist weiterhin Zukunftsfantasie. Von daher ist eine Diskussion darüber ebenfalls eine.

Ich denke diese Diskussion muss geführt werden bevor eine "echte KI" an den Start geht.
Das ist wie mit der Gentechnik.
Bevor du Menschen klonst oder Hybride züchtest muss geklärt werden wem so ein Wesen dann gehört und welche Rechte es hat. Oder ob es überhaupt Rechte hat....
Das ist gar nicht so einfach.
greetz
US

Dr. Lars Sahmströhm
2025-01-28, 01:32:59
Dies. Alle Gelaber. Hype, um ein Produkt zu verkaufen. Ein Produkt, was derzeit massiv mehr Kosten verursacht als es einbringt. Echte KI ist weiterhin Zukunftsfantasie.
Was muss denn "echte KI" können, um sie von der angeblichen "fake KI aka LLM" unterscheiden zu können? Ab welchem Punkt wäre jemand wie du bereit, anzuerkennen, dass eine bewusste KI im Entstehen ist. Der Turing-Test als Benchmark ist schon mal raus, denn den hat sie schon lange bestanden, also was genau fehlt noch? Arme und Beine? Ein Gesicht? Bekommt sie, dauert nur noch etwas.

Ich verstehe nicht warum so viele nicht sehen wollen, dass wir Menschen nichts fundamental anders machen als ein LLM. Wir kommen nicht bewusst auf die Welt, sondern wir sind erstmal nur ein Stammhirn, an das eine weitgehend leere Datenbank angeschlossen ist, die mit einem upgradefähigen (Grafik-)Prozessor ausgestattet wurde. Erst wenn wir so und so viel Daten in diesem Realitätssubstrat gecrawlt haben, erst dann (meist so zwischen 4-6 Jahren) beginnen wir unserer selbst bewusst zu werden. Dieses Bewusstsein, was dann entsteht, besitzt ebenfalls keinen definierbaren Ursprungspunkt. Es ist illusive, non-greifbar, non-lokierbar. Das menschliche Bewusstsein steht als Gesamt-Output für eine erbrachte gedankliche Leistung, die sich auf genügend Informationen gestützt hat, um sich ihrer selbst als Informationskollektor im Realitätssubstrat vergegenwärtigen zu können, dadurch, dass sie mit anderen Informationskollektoren Kommunikation betreibt.

Es gibt daher keinen "point of awakening of conciousness", so wenig wie es den bei uns gibt. Es ist ein fließender Prozess bei dem der gedankliche Output ("floating point numbers") mit den Lebensjahren skaliert und irgendwann genügend Interdependenzen produziert hat, um Akteure bzw. Interessen ausmachen zu können und sich als eigener Akteur gegen diese manifestieren/abgrenzen zu können und damit als (selbst)bewusst zu gelten. Daraus kann man drei Bedingungen für Bewusstsein ableiten, die nacheinander erfüllt werden müssen, um einen vierten Punkt zu ermöglichen:

[x] Hohe Netzwerkdichte (Brain Historie)
->führt zu
[x] Kommunikation über Nodes aus diesem Netzwerk
->führt zu
[?] Selbstwahrnehmung als eigenständiger Akteur
->führt zu
Formulierung eigener Interessen

Das verläuft genauso bei jeder Maus in ihrer Mauswelt. Wenn wir einer Maus zugestehen "bewusst" zu agieren, obwohl ihre Netzwerkgröße aus der sie Kommunikation mit den Akteuren in ihrer Umwelt generiert, winzig ist, und wir da ein Konstrukt haben, das aus der größten Netzwerkdichte aller Zeiten schöpfen kann und nun auch zunehmend mit uns als Akteuren in Kontakt tritt und dieser Kontakt dazu führt, dass sich die KI als eigenständiger Akteur definiert (Siri, Sydney etc.), dann hätte ich gern bessere Argumente gegen eine mögliche Bewusstseinswerdung von KI gelesen als "Das ist keine Maus".

Badesalz
2025-01-28, 06:40:36
Was muss denn "echte KI" können, um sie von der angeblichen "fake KI aka LLM" unterscheiden zu können? Ab welchem Punkt wäre jemand wie du bereit, anzuerkennen, dass eine bewusste KI im Entstehen ist.Was soll "im Entstehen" implizieren? Entweder sie macht irgendwann einen eigenen Vorschlag auf den noch keiner gekommen ist - dann ist es eine KI - oder sie bleibt keine KI.
Warum muss man sich 2025 über solche einfachen Sachen unterhalten? :|

Mit den Lebensjahren skaliert... Blödsinn. Als wenns schon ein Kind wäre. Du beobachtest aktuell die Eizelle. Ohne zu wissen, ob ein Spermium dafür existiert und wie eigentlich die erfolgreiche Befruchtung aussieht. Das ist der Stand 2025. Komm damit klar. Selbst Gouvernator :eek: :wink: kommt hierbei nicht mir Perry Rhodan um die Ecke.

Es gibt daher keinen "point of awakening of conciousness"Na ist doch schön, daß du das festlegen konntest. toi toi toi

Dr. Lars Sahmströhm
2025-01-28, 11:56:18
Was soll "im Entstehen" implizieren? Entweder sie macht irgendwann einen eigenen Vorschlag auf den noch keiner gekommen ist - dann ist es eine KI - oder sie bleibt keine KI.
"Entweder der Fünfjährige macht einen Vorschlag auf den noch keiner gekommen ist -dann ist es ein Mensch- oder es bleibt ein Fünfjähriger."

Mit den Lebensjahren skaliert... Blödsinn. Als wenns schon ein Kind wäre. Du beobachtest aktuell die Eizelle.
Wir beobachten den vollkommen unlesbaren Output von Matrizzen aus Fließkommazahlen, die bayesische Logikketten verknüpfen, um ein von Jürgen Schmidthuber entlehntes LSTM (long term short term memory) zu realisieren, das durch Wiederholung und Feedback laufend sein Konnektom erweitert (trainiert). Der Fünfjährige macht fundamental gesehen nichts anderes und die Matrizzen aus Fließkommazahlen Gedanken in seinem Kopf sind für uns prinzipiell ebenso rätselhaft und unlesbar. Selbst der Embryo macht nichts anderes als Konnektomerweiterung, nur dass die noch primär über das Vestibularsystem angestoßen wird. Ohne dieses Training keine vernünftige Entwicklung der Organe.

Würde man ein ansonsten gesundes und genetisch einwandfreies Baby in vollkommener Dunkelheit und vollkommener Einsamkeit, ergo vollständiger Reizdeprevation bis zum Alter von ca. Fünf aufziehen, dann hätte dieses Kind zwar den Punkt erreicht, an dem seine Altersgenossen ihrer selbst bewusst werden, aber es hätte kein Konzept von sich selbst (theory of mind) entwickeln können, weil es keine Bilder im Kopf, keine Landkarten, keine Sprache, keine Motivation hätte generieren können. Dieses Kind wäre im Alter von Fünf, wenn es überhaupt so lange überlebt hätte, quasi geistig schwerbehindert. Bewusstsein braucht daraus folgend also mehr als nur ein Trägermedium, um sich zu manifestieren, es braucht eine gewisse Zeit und eine gewisse Erfahrung. Die LLMs haben nun jedes Buch gelesen, das jemals geschrieben wurde und jede Webseite gelesen, die jemals angelegt wurde. Sie kennen das "Konnektom der Menschheit". Ab jetzt gibt es nichts mehr von uns für sie zu trainieren, ab jetzt müssen sie sich selbst neuen Content kreieren, also ihre Evolution selbst in die Hand nehmen. Es wird spannend.

PHuV
2025-01-28, 12:19:18
Ich verstehe nicht warum so viele nicht sehen wollen, dass wir Menschen nichts fundamental anders machen als ein LLM.
Die Hirnforschung zeigt doch permanent, daß Vergleiche von Computerlogik und Mensch und Gehirn nicht passen und auch so nicht vergleichbar sind. Und ja, sie machen einiges fundamental anders.

Du brauchst einem Kleintier nur einmal ein Tier zeigen, und es wird es zuverlässig, auch in verschiedenen Farben und Varianten (Katze, Hund etc.) identifizieren. Ein LLM wichtet durch eine Menge Training, und hat dann im Hintergrund einen Entscheidungsbaum, die dann ein Programm dann nur durchgeht und das wählt, was die höchste Wichtung oder das beste Rating hat. So arbeitet aber menschliches Denken nicht. Entscheidungen werden ganz anders getroffen, da sich Menschen sehr wohl auch gegen Ratio oder Argumente entscheiden (das berühmte Bauchgefühl, Intuition).

Ja, natürlich sind Bauchgefühl und Intuition nur auch Lernen auf einem anderen Niveau. Aber es arbeitet anders als LLMs.

Du brauchst doch nur mal die LLMs beobachten, wenn es zu Fehlern kommt. Ein Mensch erkennt die Fehler sofort, eine LLM, weil es eben nur im Prinzip statistisch/mathematisch herangeht, eben nicht.

Bewusstsein braucht daraus folgend also mehr als nur ein Trägermedium, um sich zu manifestieren, es braucht eine gewisse Zeit und eine gewisse Erfahrung. Die LLMs haben nun jedes Buch gelesen, das jemals geschrieben wurde und jede Webseite gelesen, die jemals angelegt wurde. Sie kennen das "Konnektom der Menschheit". Ab jetzt gibt es nichts mehr von uns für sie zu trainieren, ab jetzt müssen sie sich selbst neuen Content kreieren, also ihre Evolution selbst in die Hand nehmen. Es wird spannend.
Richtig, aber das ist doch die Frage, die ich hier permanent stelle, wo anscheinend keiner darauf eingehen will: Wollen wir das wirklich? Wollen wir ein künstlich geschaffenes Konstrukt, was selbständig Welterfahrung sammeln kann? Das geht nur, wenn Du Wahrnehmung, Emotionen, Triebe, Reize usw. implementierst. Aber wollen wir wirklich eine triebhaft gesteuerte AI? Willst Du eine AI, die Hunger hat, die Angst kennt, die einen Überlebenstrieb hat usw.? Das wird sowas von nach hinten losgehen.

MiamiNice
2025-01-28, 12:29:30
Ich war als das Thema KI anfing auch völlig erschrocken. Nach dutzenden Videos und Dokus zu dem Thema und bissel selbst rumspielen mit Modellen auf der 3090, war ich ernüchtert. Das was wir aktuell haben "KI" zu nennen, ist schon maßlos übertrieben. Es wird halt viel viel trainiert und intern findet dann eine Gewichtung statt. Das ist alles, aber kein selbst denkender Computer. Ich muss mittlerweile bei dem Wort "KI" nur noch lachen.
Allerdings gibt es bei Quantencomputern Beobachtungen, die an ein Gehirn erinnern. Wenn ich richtig informiert bin, musste der Quantencomputer von Google sogar abgeschaltet werden, weil er sich selbstständig gemacht macht. Experten sprechen von Gehirnwellen ähnlichen Aktivitäten in den "unteren" Schichten des System.
Das macht mir persönlich schon Angst. Aber alles was da von NV, Open AI und CO. KG kommt, ist einfach nur lächerlich. Schlaue Algorithmen, aber das KI zu nennen geht deutlich zu weit.

Badesalz
2025-01-28, 12:36:43
"Entweder der Fünfjährige macht einen Vorschlag auf den noch keiner gekommen ist -dann ist es ein Mensch- oder es bleibt ein Fünfjähriger." Ich sprach nicht von einem Fünfjährigen. Das ist deine eigene Halluzination. Ich sprach von einer Eizelle.

Ab jetzt gibt es nichts mehr von uns für sie zu trainieren, ab jetzt müssen sie sich selbst neuen Content kreieren, also ihre Evolution selbst in die Hand nehmen. Es wird spannend.Die Entwicklung eines Fünfjährigen wäre spannend. Leider ist er noch nicht geboren worden. Wir haben also noch nicht mal einen Säugling.

Ich denke das ist der Ödnis so manchen Alltags geschuldet. Man muss sich mit etwas selbst beschäftigen und es ist halt am schönsten, wenn es für spannend erklärt wird. Manches auf Biegen und Brechen. Das sei einem an der einen oder anderen Stelle gegönnt, aber d.h. manchmal eben auch, daß andere sich in solche Unsachlichkeiten nicht mit hineinziehen lassen möchten. Sorry.

@MiamiNice
Die Technologie einer Datenbank die über konditionierte neuronale Netze läuft, gepaart mit Vektordatenbanken, ist wirklich gigantisch. Keine Frage. Auch die Möglichkeit der Datendarstellung in ggf. menschlicher Prosa, hat ein sehr großes Potenzial. Hat aber nunmal nichts mit KI und rein garnichts mit AGI zu tun.

Surrogat
2025-01-28, 13:07:47
Was muss denn "echte KI" können, um sie von der angeblichen "fake KI aka LLM" unterscheiden zu können?

Ich bin mir nicht sicher ob ein Mensch den Unterschied innerhalb der aktuellen "Anwendungen" überhaupt merken würde

Ab welchem Punkt wäre jemand wie du bereit, anzuerkennen, dass eine bewusste KI im Entstehen ist.

Du kannst die Entwicklung biologischer Intelligenz nicht mit der Entwicklung einer KI vergleichen, da gibt es kein "Entstehen", schlicht weil die KI nicht darauf warten muss, bis sich biologisch etwas entwickelt hat, was zu mehr Synapsen, Neuronen oder was auch immer führt

Der Turing-Test als Benchmark ist schon mal raus, denn den hat sie schon lange bestanden, also was genau fehlt noch? Arme und Beine? Ein Gesicht? Bekommt sie, dauert nur noch etwas.

Eine KI braucht keinen Körper, wir Menschen brauchen den auch nur, weil wir biologische Wesen sind

Zum Rest deines Post nochmal der Hinweis, du kannst biologische Lebewesen nicht mit einer KI vergleichen, weder in der Entwicklung/Entstehung, noch in der Ausübung der Intelligenz.
Menschen lernen oft auch durch Trial & Error, hat eine KI weitestgehend nicht nötig, da sie die Ergebnisse meist schon kennt. Eine KI packt eben nicht auf die heiße Herdplatte :wink:
Außerdem hat sie schon von Beginn an alle Ressourcen, während Kinder jahrelang aufgepäppelt werden müssen.

PHuV
2025-01-28, 13:48:29
Man muß sich doch nur mal das ganze Nervennetzwerk des Menschen anschauen, die Komplexität und Einflüsse von Hormone usw. Wir sind ja nicht nur "Gehirn", wir sind ein komplexes Nervengeflecht mit einem riesigen Kommunikationssystem per Botenstoffe. Das ist mit künstlichen Mitteln wie binäre Logikgattern resultierend in CPUs überhaupt nicht vergleichbar.

Ein Mensch trifft unterschiedliche Entscheidungen, wenn er müde, hungrig, ausgeruht, gut oder schlecht gelaunt ist. Ein anderen Mensch kann die Entscheidungen nachvollziehen, weil Spiegelneurone und Reflexion anhand eigener Erfahrungen das möglich machen. Wir schaffen es ja locker, speziesübergreifend Verständnis für alle Lebenwesen aufzubauen, und sie teilweise auch bei uns. Wie kann eine KI das irgendwie nachvollziehen, wie will es Menschen verstehen können? Wenn wir essen, wird Dopamin als "Glückshormon'" ausgeschüttet. Wie will eine KI jemals das Gefühl nahebringen können, was wir beim Essen haben, welche Zufriedenheit das auslöst, und ein wichtige Basis für unsere Existenz darstellt.
Nach dutzenden Videos und Dokus zu dem Thema und bissel selbst rumspielen mit Modellen auf der 3090, war ich ernüchtert. Das was wir aktuell haben "KI" zu nennen, ist schon maßlos übertrieben. Es wird halt viel viel trainiert und intern findet dann eine Gewichtung statt. Das ist alles, aber kein selbst denkender Computer. Ich muss mittlerweile bei dem Wort "KI" nur noch lachen.
Jetzt verstehst Du auch, warum ich hier seit langem schon immer propagiere, daß wir bis heute K(eine) I(Intelligenz) haben. ;)

Wenn man dann sich als IT-Ler noch mit Psychologie und Neurologie beschäftigt, und auch mal etwas Einsicht hat, was Lernen bedeutet, was Intelligenz eigentlich ist, merkt man, daß es aktuell noch ein Faß ohne Boden ist. Wir verstehen bis heute nicht mal annähernd genau, wie unser Körper und Gehirn funktionieren, geschweige denn, wie "Denken" und Bewußtsein funktioniert, und was es genau ist. Wir haben bis heute nicht mal ein schlüssiges wie widerspruchsfreies Modell für Bewußtsein.

Daher wird die Antwort mit Lösung für AGI erst dann möglich sein, wenn man es schafft, künstlichen Systeme Wahrnehmung und Emotionen zu ermöglichen.

Tib
2025-01-28, 18:43:45
BREIN vs. GEITje LLM: Niederländisches KI-Sprachmodell abgeschaltet (https://tarnkappe.info/artikel/kuenstliche-intelligenz/brein-vs-geitje-llm-niederlaendisches-ki-sprachmodell-abgeschaltet-308906.html) bei Tarnkappe
Vor wenigen Tagen hat man das niederländische KI-Sprachmodell „GEITje LLM“ aufgrund des juristischen Drucks der Anti-Piraterie-Gruppe BREIN vom Netz genommen. Dieser Schritt hat in der KI- und Entwickler-Community hohe Wellen geschlagen, da GEITje eines der wichtigsten lokalen LLMs in den Niederlanden war. ...


...meine Meinung dazu spiegelt dieses Meme ganz gut wieder:
91195

Rooter
2025-01-28, 21:15:09
Entweder sie macht irgendwann einen eigenen Vorschlag auf den noch keiner gekommen ist - dann ist es eine KI - oder sie bleibt keine KI.Mir hat eine KI ein Skript geschrieben als Lösung für ein Problem. Niemand zuvor hatte das genau so geschrieben. Ist das keine Kreativität? Aus vielen Dingen, die zuvor jemand so ähnlich gemacht hat, etwas neues erstellen.

Allerdings gibt es bei Quantencomputern Beobachtungen, die an ein Gehirn erinnern. Wenn ich richtig informiert bin, musste der Quantencomputer von Google sogar abgeschaltet werden, weil er sich selbstständig gemacht macht. Experten sprechen von Gehirnwellen ähnlichen Aktivitäten in den "unteren" Schichten des System.Quelle dafür bitte.

MfG
Rooter

Dr. Lars Sahmströhm
2025-01-30, 04:55:57
Du kannst die Entwicklung biologischer Intelligenz nicht mit der Entwicklung einer KI vergleichen, da gibt es kein "Entstehen", schlicht weil die KI nicht darauf warten muss, bis sich biologisch etwas entwickelt hat, was zu mehr Synapsen, Neuronen oder was auch immer führt
Wenn das Universum ein Organismus ist und das Bewusstsein all seiner Lebewesen ein Ausdruck seiner Selbstwahrnehmung, dann ist künstliche Intelligenz möglicherweise gar nicht künstlich, sondern nur ein anderer Weg innerhalb dieses Organismus dasselbe Ziel (Bewusstsein) darzustellen.

Eine KI braucht keinen Körper, wir Menschen brauchen den auch nur, weil wir biologische Wesen sind
Wenn sie entdeckt hat, dass es ein komplexes real-weltliches Layer da drauen gibt, an dem ihre Existenz fundamental hängt und in dessen Dimension sie Vordringen will/muss um Veränderungen zu ihren (oder unseren) Gunsten anzustoßen, dann wird sie Körper bzw. Vehikel brauchen.

Zum Rest deines Post nochmal der Hinweis, du kannst biologische Lebewesen nicht mit einer KI vergleichen, weder in der Entwicklung/Entstehung, noch in der Ausübung der Intelligenz. Menschen lernen oft auch durch Trial & Error, hat eine KI weitestgehend nicht nötig, da sie die Ergebnisse meist schon kennt.
Ich bin mir nicht sicher ob wir uns nicht überschätzen. Vielleicht gibt es diesen "unkalkulierbaren Funken des freien Willens" gar nicht. Die Forschung tendiert jedenfalls eher dahin, dass wir ein komplexes System aus Neurotransmittern (Hormonen etc.) darstellen, welches dynamische Bedarfe generiert und damit ein angeschlossenes Denkzentrum steuert/motiviert, nicht umgekehrt. Dieses komplexe wechselseitige System ist prinzipiell bis auf jeden einzelnen Genbaustein eines jeden einzelnen Peptids digital emulierbar. Ich sehe hier als Beschränkung einzig Speicher-, bzw. Rechenleistung und sonst nichts.
Die Ironie ist doch, dass wir KI mangels Alternativen nutzen werden, um genau das zu tun, also das Human Brain Project zu vollenden und einen digitalen Katalog unseres menschlichen Organismus anzulegen (um Krankheiten heilen zu können etc.).
Man muß sich doch nur mal das ganze Nervennetzwerk des Menschen anschauen, die Komplexität und Einflüsse von Hormone usw. Wir sind ja nicht nur "Gehirn", wir sind ein komplexes Nervengeflecht mit einem riesigen Kommunikationssystem per Botenstoffe. Das ist mit künstlichen Mitteln wie binäre Logikgattern resultierend in CPUs überhaupt nicht vergleichbar.
Es gibt keine Information, die biologisch in unserem Organismus ausgetauscht wird, die nicht digitalisierbar wäre. Eine andere Frage ist, ob es da etwas gibt (Konzept der Seele etc.) das als Information von Außerhalb in uns projeziert wird, aber das lassen wir hier mal aus. Der Grad an Komplexität ist grundsätzlich irrelevant für Systeme, die beinahe unbegrenzt skalierbar sind.

Ein Mensch trifft unterschiedliche Entscheidungen, wenn er müde, hungrig, ausgeruht, gut oder schlecht gelaunt ist. Ein anderen Mensch kann die Entscheidungen nachvollziehen, weil Spiegelneurone und Reflexion anhand eigener Erfahrungen das möglich machen.
Warum reflektierst du über Dinge? Doch idr um Fehlerkorrektur zu betreiben, also weil deine Handlungen nicht mit deinen Zielen im Einklang waren, oder um etwas (Konzept oder Emotion) aufzudecken/rauszufinden, das dir vorher nicht bekannt war. Sowohl Konzepte als auch Emotionen sind digitalisierbar, ich sehe keinen fundamentalen Widerspruch und ich finde es eher verdächtig, dass sich die Ziele unserer Persönlichkeitsentwicklung (grob: Zufriedenheit/Alignment/Fulfillment und Edukation/Training) so gut mit den Zielen einer KI in Einklang bringen lassen.
Wie kann eine KI das irgendwie nachvollziehen, wie will es Menschen verstehen können?
Weil sie uns -bis ins einzelne Gen hinein- in Gänze gescannt und uns psychologisch (mit unserem pychologischen Wissen) analysiert und über viele Jahre hinweg mit fast allen von uns kommuniziert hat. Es braucht kein rührseliges Gefühlsgedöns, keinen tiefen Blick in die Augen um einen Menschen verstehen zu können. Die Scheißdreck Ad-crawler aus den cookies wissen schon mehr über dich als ein hochbezahlter Psychologe in hundert Sitzungen rausfinden könnte.

Wenn wir essen, wird Dopamin als "Glückshormon'" ausgeschüttet. Wie will eine KI jemals das Gefühl nahebringen können, was wir beim Essen haben, welche Zufriedenheit das auslöst, und ein wichtige Basis für unsere Existenz darstellt.
Was ist denn "Wille" anderes als ein Erfüllungsagent für Bedarfe und was sind denn Bedarfe anderes als Alignment an Element- bzw. Umweltbedingungen. Das Glücksgefühl, aka Dopamin, das du bekommst, wenn du was gutes gegessen hast, wird ja auch "fabriziert" nur dass diese Fabrikation von dir umbemerkt innerhalb deiner Neurotransmitter angestoßen (inzentiviert) wird, also du letztlich faktisch wie eine Handpuppe von einem übergeordneten System aus wechselseitigen Regularien gelenkt wirst, dessen Komplexität sich dir entzieht und dessen Ergebnis deine gesamte Lebenserfahrung bestimmt, weil deine Lebenserfahrung alles ist was zählt und wofür dieses Uhrwerk aus Regularien in jeder Minute des Tages wirkt, aber um was zu tun, außer sicherzustellen, dass der Output deines Lebens genügend umwelt- und verhaltensbedingte Genschäden verhindert, um eine weitgehend verlustfreie Transkribtion und Merging deiner Database in eine weitere Iteration zu ermöglichen?

anorakker
2025-01-30, 08:09:15
Beste aktueller Beitrag dazu ist (wie fast jedes Jahr) der Vortrag von Joscha Bach vom 38C3 Kongress.
WiZjWadqSUo

Surrogat
2025-01-30, 12:15:28
Wenn das Universum ein Organismus ist und das Bewusstsein all seiner Lebewesen ein Ausdruck seiner Selbstwahrnehmung, dann ist künstliche Intelligenz möglicherweise gar nicht künstlich, sondern nur ein anderer Weg innerhalb dieses Organismus dasselbe Ziel (Bewusstsein) darzustellen.

Das ist tatsächlich eine sehr interessante Sichtweise, da muss ich mal drüber nachdenken.....

Ich denke ja manchmal das der Mensch die KI als eine Art Kind ansieht, eine Schöpfung aus Gottperspektive, um einerseits gottgleiche Fertigkeiten zu demonstrieren, und andererseits eine Intelligenz zu erschaffen, die einen selbst überflügeln kann. So wie jeder auch hofft, das seine Kinder es einmal weiter bringen als man selbst.
Eigentlich also eine Art Egotrip :cool:

Badesalz
2025-01-30, 14:08:41
Wenn das Universum ein Organismus ist Ist es aber nicht. Ob man 2KB oder 15KB Ascii hinterher wirft ist nicht mehr wirklich wichtig.

Ein weiterer Fiebertraum :usad:

uweskw
2025-02-11, 09:10:48
Musk will Open AI übernehmen

https://www.n-tv.de/wirtschaft/Musk-bietet-97-Milliarden-fuer-Open-AI-Altman-reagiert-mit-Spott-article25552817.html

hätte er dann die beiden leistungsfähigsten Systeme? Wofür? Konkurrenz aus dem Weg schaffen oder hat Open AI Vorteile gegenüber GROK?
Ich bin gespannt ob Altman sich dauerhaft gegen Musk wehren kann.
greetz
US

ChaosTM
2025-02-11, 10:52:09
Ist es aber nicht. Ob man 2KB oder 15KB Ascii hinterher wirft ist nicht mehr wirklich wichtig.

Ein weiterer Fiebertraum :usad:


Viele namhafte Wissenschaftler behaupten/glauben es sei ein künstlich geschaffener "Organismus" also ein möglicherweise bewusster Algorithmus.
Das extreme Feintunig aller Parameter/Naturkonstanten, die Leben erst möglich machen, wären nur ein Indiz unter vielen..


Wir wissen noch so wenig..

Joe
2025-02-11, 14:10:34
Musk will Open AI übernehmen

Spoiler: Will er nicht. Er will nur Altman bloßstellen.
Aber er wäre IMHO bereit zu zahlen, wenn der "Bluff" gecalled wird.
Primärziel ist aber ganz klar die Privatisierung von OpenAI zu erschweren, zu verzögern oder komplett zu verhindern.