PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Künstliche Intelligenz - Das nächste dicke Ding?


Seiten : [1] 2

Avalox
2016-10-06, 09:52:33
Google hat es ja klar kommuniziert. Die mobile Revolution ist vorüber, die Welt mobil erreichbar und die nächste Revolution steht vor der Tür.

Genährt aus dem Big Date wird künstliche Intelligenz weit breiter noch im Alltagsgeschäft Einzug halten und IT Arbeitsprozesse und das IT Privatleben umkrempeln.

Wie seht ihr das, welche Indizien seht ihr, was meint ihr wird passieren ..?

Argo Zero
2016-10-06, 09:59:35
Vielleicht gibt es dann endlich erstmal flächendeckend Breitband-Internert in DE.
Jetzt haben wir schon 2016 und in 2 von 3 Büros machen wir noch mit einer 6.000er Leitung herum.
Wenn ich dann etwas von AI lese, klingt das wie Sci-Fi.

gerry7
2016-10-06, 10:40:32
Vielleicht gibt es dann endlich erstmal flächendeckend Breitband-Internert in DE.
Jetzt haben wir schon 2016 und in 2 von 3 Büros machen wir noch mit einer 6.000er Leitung herum.
Wenn ich dann etwas von AI lese, klingt das wie Sci-Fi.

Yup, kommt mir bekannt vor. Und in unserem Stadtteil gibt es satte 2000 von der Telekomik.
LTE nur mit Volumen (Film Ahoi).

Zu Glück liegt in unserem Wohungen Kabel (Aber 95% habe auch das nicht), Unitymedia ist zwar auch nicht der Reisser als Anbieter aber sonst ist bei uns nix da.

PHuV
2016-10-06, 11:36:19
Unsere Firma ja bei uns schon kräftig mit Big Data und Analyse bzw. Verarbeitung seit ca. 18 Monaten mittendrin. Ihr glaubt ja nicht, wo das alles heute schon eingesetzt wird.

Lowkey
2016-10-06, 11:46:41
Die Provider bauen zuerst da aus, wo es sich lohnt. Hier nicht, weil zwei andere Provider ausgebaut haben, aber der Wechsel ist mit schlechten Konditionen verknüpft. Dafür ist jede Jagdhütte meiner Verwandten mit 50 Mbit Internet ausgerüstet worden: ein Anbieter und günstige Preise wie in der Großstadt.


VR kommt erst mit echten AAA+ Titeln in Schwung.

RaumKraehe
2016-10-06, 11:53:26
Gerade im Urlaub erlebt.

Google weiß das ich im Urlaub:

- schlägt mir Sehenswürdigkeiten in der Nähe vor
- Sagt mir am Morgen wie ich auf griechisch Menschen Begrüße, dito am Abend.
- Sagt mir wie ich nach der Rechnung frage, ungefähr in dem Moment in dem ich mit dem Essen fertig bin.
- Sagt mir wie spät es zu Hause ist.
usw.
- Wenn ich wissen will wann ich was gemacht habe muss ich mir nur meine Histroy ansehen.
- Google trackt nun mitlerweile sogar Foren-Beiträge und gibt mir bescheid wenn etwas interessantes passiert ist.

Erinnert schon stark an den Roman "The Circle".

Ich sehe das mit gemischten Gefühlen. Einerseits faszinieren mich die Möglichkeiten, schon aus rein technischem Interesse. Auf der anderen Seite weiß ich und mir ist vollkommen klar wie man diese Daten mißbrauchen kann und das es irgend wann passieren wird.

Lurtz
2016-10-06, 13:32:05
Google weiß das ich im Urlaub:

- schlägt mir Sehenswürdigkeiten in der Nähe vor
- Sagt mir am Morgen wie ich auf griechisch Menschen Begrüße, dito am Abend.
- Sagt mir wie ich nach der Rechnung frage, ungefähr in dem Moment in dem ich mit dem Essen fertig bin.
- Sagt mir wie spät es zu Hause ist.
usw.
- Wenn ich wissen will wann ich was gemacht habe muss ich mir nur meine Histroy ansehen.
- Google trackt nun mitlerweile sogar Foren-Beiträge und gibt mir bescheid wenn etwas interessantes passiert ist.
Das war auch ziemlich unheimlich in unserem Urlaub, dabei hatten wir sogar nur sporadischen WLAN-Zugang, keine Mobilverbindung :ugly:

PHuV
2016-10-06, 13:33:02
Ihr könnt mal davon ausgehen, daß in allen größeren Shop- und Handelsplattformen eine Menge Daten über Euch gesammelt werden.

sakul
2016-10-06, 13:41:33
Ja lol hier geht es um Mobile Revolution
Nach der viel sagenden Überschrift dachte ich, ich sehe hier paar Möp.. oder so :freak:
Ich sollte echt weniger Bildzeitung lesen :rolleyes:

Zum Thema
Tja was wird uns wohl erwarten?
Ich denke mal das schufa artige Scoring wird noch ausgeweitet. In Zukunft wird alles was du machst relevant für deine Zukunft sein z.B. Wie oft gehst du ins Fitness, was hast du für Freunde und Verwandte, welche Internet Seiten besuchst du, wo und was kaufst du ein usw.

All dies wird bei großen amerikanischen Firmen gespeichert sein. Wenn also jemand gesucht wird z.B. eine Arbeitskraft, oder ein Schwiegersohn oder jemand mochte Geld leihen bzw. eine Versicherung abschließen.
Dann gibt man bestimmte Suchkriterien dort in der Datenbank ein und bekommt die passenden Nahmen mit Scor.

Solltest du in der falschen Gegend Wohnen oder dein Bruder wegen Autodiebstahl im Knast sitzen hast du halt Pech gehabt. Denn es gibt noch 10.000 andere die den gleichen Scor wie du haben.

Es wird also in Zukunft existenziell wichtig sein "im sinne der Gesellschaft" zu leben. Wer das nicht beherzigt wird nicht weit kommen.
So können die Eliten auch in Zukunft die Kontrolle behalten und noch besser Kontrollieren das nur zu ihnen aufschließt wer auch zu ihnen passt.

ChaosTM
2016-10-06, 13:48:41
Das nächste große Ding für Google und Apple könnte die dauerhafte Überwachung der Körperfunktionen via Watch oder Armband sein.
Damit wären die Datensätze dann fast komplett..

Lowkey
2016-10-06, 14:06:22
Man hat ja gesehen was passiert, wenn ein großer Internetriese wie Yahoo zugibt, dass er gehackt worden sei. Kein Wunder, dass zB. C***K*** einen Hack nicht öffentlich zugibt oder public macht.

Genauso könnte jeder Shop im Netz seine Daten unter der Hand weiterverkaufen und im Notfall behaupten sie seien gehackt.

Big Data etc ist nur gut wenn die Daten echt sind.


Überwachung von Gesundheitsdaten und Überwachung der Autos bieten die Versicherung seit knapp einem Jahr an. Überwachung der Smartphones samt Standortdaten ist für manche Eltern ein Standard.

Pirx
2016-10-06, 15:07:52
Das nächste große Ding für Google und Apple könnte die dauerhafte Überwachung der Körperfunktionen via Watch oder Armband sein.
Damit wären die Datensätze dann fast komplett..
und/oder rfid

RaumKraehe
2016-10-06, 15:13:57
Ihr könnt mal davon ausgehen, daß in allen größeren Shop- und Handelsplattformen eine Menge Daten über Euch gesammelt werden.

Wir arbeiten mit einem Unternehmen zusammen das nichts anders macht als MAC-Adressen von Mobilgeräten sammeln. Dazu muss man sich ja nicht mal mit einem Netzwerk verbinden.

Diese MAC-Adressen werden ausgewertet und nach Kategorieen sortiert. Und schon kann man gewisse Annahmen über den Besitzer der MAC-Adresse machen. Damit kann man dann im Store z.B. eher gezieltere Werbung schalten usw. ;)

Pompos
2016-10-06, 22:11:01
Ich glaube, dass wir mit "KI" bzw. den smarten Assistenten da sind wo wir vielleicht 2000 mit Mobile waren. Man kann es erahnen aber es ist noch ein langer weg und keiner der Marktschreier hat einen wirklichen Plan, sondern hofft, dass er es zufällig richtig trifft.
Gerade im Urlaub erlebt.

Google weiß das ich im Urlaub:

- schlägt mir Sehenswürdigkeiten in der Nähe vor
- Sagt mir am Morgen wie ich auf griechisch Menschen Begrüße, dito am Abend.
- Sagt mir wie ich nach der Rechnung frage, ungefähr in dem Moment in dem ich mit dem Essen fertig bin.
- Sagt mir wie spät es zu Hause ist.
usw.
- Wenn ich wissen will wann ich was gemacht habe muss ich mir nur meine Histroy ansehen.
- Google trackt nun mitlerweile sogar Foren-Beiträge und gibt mir bescheid wenn etwas interessantes passiert ist.

Das ist jetzt nicht wirklich künstliche Intelligenz. Sondern einfache Regeln mit ein paar Wahrscheinlichkeitsrechnungen.


Erinnert schon stark an den Roman "The Circle".

Ich sehe das mit gemischten Gefühlen. Einerseits faszinieren mich die Möglichkeiten, schon aus rein technischem Interesse. Auf der anderen Seite weiß ich und mir ist vollkommen klar wie man diese Daten mißbrauchen kann und das es irgend wann passieren wird.
Wie kann man denn diese Daten missbrauchen? Was würdest du Missbrauch deiner Daten nennen?

Avalox
2016-10-07, 09:08:16
wenn es nach Aussagen von Kennern geht, dann wird diese KI Revolution in der Mensch Maschine Kommunikation zu enormen Ratiopotential in allen Verwaltungstätigkeiten führen. Die Mechanismen und Techniken die ein Auto in einem Bild erkennen, oder ein gesprochenes Word, sind prinzipiell auch in der Lage die typischen Verwaltungsvorgänge zu erledigen.

Wenn man nun betrachtet, dass ja seit Oktober diesen Jahres für Rechtsverbindliche Vertragskündigungen die Schriftform ohne Unterschrift eingeführt wurde, dann kann man ja an zwei Finger abzählen durch welche Lobby mit welchen Hintergedanken solch eine Änderung eingebracht wurde. Prinzipiell eine gute Sache, wenn nicht wieder die abhängig angestellten Menschen auf der Strecke bleiben würden
.

RLZ
2016-10-07, 12:08:22
Die Mechanismen und Techniken die ein Auto in einem Bild erkennen, oder ein gesprochenes Word, sind prinzipiell auch in der Lage die typischen Verwaltungsvorgänge zu erledigen.
Noch schlimmer: Die Techniken aus autonomen Fahrzeuge können ohne Fahrer Fahrzeuge bewegen. X-D
Stell dir mal vor, was das für die eine Million LKW und Taxi-Fahrer in Deutschland bedeutet.

Imo wären wir in der Lage in 10-20 Jahren einen nicht kleinen Teil der Arbeitsplätze zu automatisieren. Gesellschaftlich tragbar ist das allerdings noch nicht.

PHuV
2016-10-07, 12:28:09
Noch schlimmer: Die Techniken aus autonomen Fahrzeuge können ohne Fahrer Fahrzeuge bewegen. X-D
Stell dir mal vor, was das für die eine Million LKW und Taxi-Fahrer in Deutschland bedeutet.

Imo wären wir in der Lage in 10-20 Jahren einen nicht kleinen Teil der Arbeitsplätze zu automatisieren. Gesellschaftlich tragbar ist das allerdings noch nicht.
Aber sehr wohl. Überleg doch mal, was die meisten Fahrzeuge wie Autos in Deutschland, und bestimmt auch weltweit, tun? Sie stehen rum. Rein ressourcentechnisch ist das verschwenderisch ohne Ende. Autonome Fahrzeuge sind deutlich risikoärmer und fehlerfreier als Menschen, wenn das mal etabliert ist. In Flugzeugen wird seit Jahrzehnten schon der Autopilot verwendet.

Ich würde mal sagen, wir MÜSSEN sogar diesen Schritt in Richtung Konsolidierung des Verkehrs gehen. Diese grenzenloser Konsum und Mehrfachproduktion ist unnötig. Bei Musik klappt das doch auch schon, viele Medien ziehen nach (Film, Buch, Spiele). Wenn wir unseren Generationen danach noch eine lebenswerte Erde hinterlassen wollen, müssen wir genau damit weiter stark fortschreiten, egal wieviel Arbeitsplätze das kosten mag.

Niall
2016-10-07, 13:27:57
In Flugzeugen wird seit Jahrzehnten schon der Autopilot verwendet.

Grundsätzlich bin ich bei Dir, der von mir zitierte Satz ist aber echt echt schlechter Vergleich. Ein Flugzeug fliegt idR mehr oder weniger geradeaus mit Bögen, muss nicht abbiegen, muss nicht auf Null abbremsen, muss keinen Kindern ausweichen die plötzlich auf die Straße laufen und auch wenn der Luftraum recht voll ist, kann es eher nicht passieren, dass ein anderes Flugzeug plötzlich die Spur wechselt und Dir hinten in die Seite ballert. etc. etc..
Wie gesagt, im Grundsatz bin ich bei Dir, der Vergleich ist aber etwas »schräg«. :D

PHuV
2016-10-07, 13:48:04
Das Problem ist die bisherige Infrastruktur, und wie Fahrzeuge gebaut werden. Wenn es eine intelligente Schwarmstruktur gibt, in der sich alle Fahrzeuge permanent gegenseitig abgleichen, und die Straßen über entsprechende Anlagen wie Funkpunkte usw., dann wäre ein großer Teil schon erledigt. Da merkt jedes Fahrzeug beispielsweise sofort, wenn ein anderes sich nähert.

Das haben wir aber alles leider noch nicht, weshalb die KI-Systeme für Fahrzeuge auch aktuell noch so komplex sein müssen. Irgendwann wird jedes Fahrzeug, wie heute Airbag und Co, Schwarmintelligenz mit entsprechender Hardware als Standard- und Minimumanforderung haben müssen.

Godmode
2016-10-07, 13:55:05
Noch schlimmer: Die Techniken aus autonomen Fahrzeuge können ohne Fahrer Fahrzeuge bewegen. X-D
Stell dir mal vor, was das für die eine Million LKW und Taxi-Fahrer in Deutschland bedeutet.

Imo wären wir in der Lage in 10-20 Jahren einen nicht kleinen Teil der Arbeitsplätze zu automatisieren. Gesellschaftlich tragbar ist das allerdings noch nicht.

Da dieser Vorgang nicht von heute auf morgen geschieht, wird sich die Volkswirtschaft schon anpassen.

lumines
2016-10-07, 13:57:14
Wir arbeiten mit einem Unternehmen zusammen das nichts anders macht als MAC-Adressen von Mobilgeräten sammeln. Dazu muss man sich ja nicht mal mit einem Netzwerk verbinden.

iOS, Android ab 6.0 und aktuelle Versionen des Networkmanagers benutzen mittlerweile zufällige MAC-Adressen zum Scannen. Wird daher wahrscheinlich nur interessante Daten liefern, wenn man sich auch mit dem WLAN verbindet. Bei Bluetooth wird es wahrscheinlich ähnlich sein.

sputnik1969
2016-10-08, 08:45:13
Imo wären wir in der Lage in 10-20 Jahren einen nicht kleinen Teil der Arbeitsplätze zu automatisieren. Gesellschaftlich tragbar ist das allerdings noch nicht.
Sehe ich anders. Möglich wäre es längst. Seit den 80er sind die Gewinne um etwa 17% gestiegen, die Gehälter der "Arbeitnehmer" aber nicht annähernd so viel.
Eine andere Verteilung der Gewinne würde bereits heute eine 34 Std. Woche als Regel ermöglichen. Wenn man die in etwa (realen) 12-15% arbeitslose mit einrechnen würde wären es vielleicht sogar nur 30 Stunden.
Das ist aber von den "Mächtigen" der Welt nicht gewünscht. je mehr Leute agst vor einem prekären leben haben, umso weniger "fordern" sich von den Gewinnen - im Tausch gegen eine trügerische Sicherheit.
Dem KANN man entgegenwirken. Mit einer regierung, die ihrem Namen gerecht wird und sich für die Interessen ALLER Bürger einsetzt, nicht nur für die, die sie mit tollen Pöstchen locken können nach ihre politischen Karriere.
Aber dazu sind die meisten Deutschen (und auch die Menschen in den meisten anderen Staaten Staaten der 1. und 2. Welt) entweder zu betriebsblind oder zu dumm. Sorry, das so formulieren zu müssen.
Schon die Bezeichnungen Arbeitgeber und Arbeitnehmer sind psychologisch getrimmt. Eigentlich bietet der Arbeiter oder Angestellte seine Arbeitskraft an, ist also eigentlich der Arbeitgeber. Der Boss NIMMT die Arbeit(sleistung) an und ist somit eigentlich der Arbeitnehmer.
Warum bezeichnet man es umgekehrt?
Naja, in einer freien Wirtschaft bestimmt eher der Anbieter die Preise. Dass wäre dann aber der, den man heute Arbeitnehmer nennt. Psychologisch ist es also besser, den Angestellten/Arbeiters in die Position des Bittstellers (Nehmer statt Geber) zu schieben, der annehmen muss, was angeboten wird.
In so einer Welt kommt die KI nur den Mächtigen zugute, in einer anderen wäre diese Technologie ein Segen, da sie die menschen von bestimmten Arbeiten entlastet.

Nakai
2016-10-08, 14:01:55
Lol, der Thread-Titel kommt 2~3 Jahre zu spät. Es ist bereits ein großes Ding.

sakul
2016-10-08, 18:33:59
Sehe ich anders. Möglich wäre es längst. Seit den 80er sind die Gewinne um etwa 17% gestiegen, die Gehälter der "Arbeitnehmer" aber nicht annähernd so viel.
Eine andere Verteilung der Gewinne würde bereits heute eine 34 Std. Woche als Regel ermöglichen. Wenn man die in etwa (realen) 12-15% arbeitslose mit einrechnen würde wären es vielleicht sogar nur 30 Stunden.
Das ist aber von den "Mächtigen" der Welt nicht gewünscht. je mehr Leute agst vor einem prekären leben haben, umso weniger "fordern" sich von den Gewinnen - im Tausch gegen eine trügerische Sicherheit.
Dem KANN man entgegenwirken. Mit einer regierung, die ihrem Namen gerecht wird und sich für die Interessen ALLER Bürger einsetzt, nicht nur für die, die sie mit tollen Pöstchen locken können nach ihre politischen Karriere.
Aber dazu sind die meisten Deutschen (und auch die Menschen in den meisten anderen Staaten Staaten der 1. und 2. Welt) entweder zu betriebsblind oder zu dumm. Sorry, das so formulieren zu müssen.
Schon die Bezeichnungen Arbeitgeber und Arbeitnehmer sind psychologisch getrimmt. Eigentlich bietet der Arbeiter oder Angestellte seine Arbeitskraft an, ist also eigentlich der Arbeitgeber. Der Boss NIMMT die Arbeit(sleistung) an und ist somit eigentlich der Arbeitnehmer.
Warum bezeichnet man es umgekehrt?
Naja, in einer freien Wirtschaft bestimmt eher der Anbieter die Preise. Dass wäre dann aber der, den man heute Arbeitnehmer nennt. Psychologisch ist es also besser, den Angestellten/Arbeiters in die Position des Bittstellers (Nehmer statt Geber) zu schieben, der annehmen muss, was angeboten wird.
In so einer Welt kommt die KI nur den Mächtigen zugute, in einer anderen wäre diese Technologie ein Segen, da sie die menschen von bestimmten Arbeiten entlastet.

Vor einigen Wochen hat man einen Schritt in diese Richtung ja versucht in der Schweiz. Die Schweiz stimmt ab. Ein Meilenstein für das Bedingungslose Grundeinkommen Was dabei heraus kam hat man ja gesehen. Die Menschheit scheint wohl noch nicht so weit zu sein und wird es vielleicht auch niemals werden.
Die mächtigen der Welt müssen sich aber schon mal fragen wie sie in Zukunft ihre Produkte an den Man bringen wollen wenn es keine Jobs mehr für einen Großteil der Menschheit geben wird. Was nutzt es wenn ich ein Auto vollautomatisiert ohne menschliches dazutun bauen kann, es sich aber fast kein Mensch leisten kann weil nur noch wenige Jobs und somit Geld haben.

Wenn man dann noch bedenkt was hier steht:
Die UNO erwartet mit Stand 2010 bei mittlerer Projektion bis 2025 8,17 Milliarden und bis 2100 10,9 Milliarden Menschen

Da muss man sich dann auch fragen wo und wie die ganzen Menschen ihren Lebensunterhalt verdienen sollen. Ganz zu schweigen von der Ernährung/Energie für diese Menschen bzw. die Abfälle die sie erzeugen.
Es wird eine andere Lösung geben müssen, vielleicht bomben wir uns ja auch wieder in die Steinzeit zurück. Die Zeichen stehen ja überall wieder auf Abschottung und Aufrüstung.
Ich sehe die Künstliche Intelligenz eher als zweischneidiges Schwert mit Potential in beide Richtungen gut und schlecht. Die Zukunft wird es Zeigen. Mad Max lässt grüßen :D

PHuV
2016-10-09, 01:16:02
Vor einigen Wochen hat man einen Schritt in diese Richtung ja versucht in der Schweiz. Die Schweiz stimmt ab. Ein Meilenstein für das Bedingungslose Grundeinkommen Was dabei heraus kam hat man ja gesehen. Die Menschheit scheint wohl noch nicht so weit zu sein und wird es vielleicht auch niemals werden.
Es war richtig, das abzulehnen. Das Grundeinkommen muß entsprechend finanziert werden, und solange das nicht entsprechend gerecht gewährleistet werden kann, ist das Grundeinkommen ein feuchter Traum.

Dicker Igel
2016-10-09, 11:37:44
Ich sehe das mit gemischten Gefühlen.
Du kannst Google sowie Dein Smartphone entsprechend konfigurieren - gewisse Sachen ggf nur über den Service Provider oder dessen App.

[...]
+1

Exxtreme
2016-10-10, 10:46:16
Wobei diese KI jetzt keine "richtige" KI ist sondern nur umfangreiche Statistik basierend auf Bigdata. Wer es überbewertet, der wird mit Sicherheit enttäuscht werden.

iuno
2016-10-10, 19:00:57
Was heisst hier keine richtige KI. Der Begriff ist nicht abschliessend definiert. Natuerlich haben diese Programme nichts mit einem Bewusstsein zu tun, natuerlich geht es "nur" um Statistik, trotzdem kann man von intelligenten Systemen sprechen.

Ganon
2016-10-11, 13:44:47
Das Problem bei der ganzen Sache ist weiterhin, Fehler aus der Datenbasis raus zu bekommen. Das hat man ja bei dem Twitterbot von Microsoft recht schön gesehen. Wenn man weiß, dass es im Hintergrund eine "KI" ist, dann kann man diese mit simplen Regeln ganz einfach mit völlig falschen Informationen füttern.

Nach Web 2.0, NoSQL und BigData ist "Deep Learning" nun der nächste große Buzzword Hypetrain, der gerade durch die Medien fährt. Einmal alle lächeln und winken, der nächste kommt sicherlich.

Nebenbei brennen Telefone ab und Autopiloten bauen tödliche Unfälle.

Lurtz
2016-10-11, 14:26:14
Nebenbei brennen Telefone ab und Autopiloten bauen tödliche Unfälle.
Wie viele Unfälle bauen menschliche Piloten? Mag ja angenehmer sein, von einem Menschen als von einer Maschine getötet zu werden, tot ist man trotzdem.

Ganon
2016-10-11, 14:36:35
Wie viele Unfälle bauen menschliche Piloten? Mag ja angenehmer sein, von einem Menschen als von einer Maschine getötet zu werden, tot ist man trotzdem.

Darum ging es mir jetzt nicht. Es geht schlicht darum, dass eine KI eben auch nicht perfekt ist und klar selbstverschuldete Fehler macht. Und wenn man jetzt direkte Interaktion ermöglicht, dann wird Manipulation ein richtig großes Problem werden.

Lurtz
2016-10-11, 15:44:20
Darum ging es mir jetzt nicht. Es geht schlicht darum, dass eine KI eben auch nicht perfekt ist und klar selbstverschuldete Fehler macht. Und wenn man jetzt direkte Interaktion ermöglicht, dann wird Manipulation ein richtig großes Problem werden.
Ist es teilweise schon:
http://www.zeit.de/gesellschaft/zeitgeschehen/2016-06/algorithmen-rassismus-straftaeter-usa-justiz-aclu

The_Invisible
2016-10-12, 15:56:35
Gerade im Urlaub erlebt.

Google weiß das ich im Urlaub:

- schlägt mir Sehenswürdigkeiten in der Nähe vor
- Sagt mir am Morgen wie ich auf griechisch Menschen Begrüße, dito am Abend.
- Sagt mir wie ich nach der Rechnung frage, ungefähr in dem Moment in dem ich mit dem Essen fertig bin.
- Sagt mir wie spät es zu Hause ist.
usw.
- Wenn ich wissen will wann ich was gemacht habe muss ich mir nur meine Histroy ansehen.
- Google trackt nun mitlerweile sogar Foren-Beiträge und gibt mir bescheid wenn etwas interessantes passiert ist.

Erinnert schon stark an den Roman "The Circle".

Ich sehe das mit gemischten Gefühlen. Einerseits faszinieren mich die Möglichkeiten, schon aus rein technischem Interesse. Auf der anderen Seite weiß ich und mir ist vollkommen klar wie man diese Daten mißbrauchen kann und das es irgend wann passieren wird.

Gerade jetzt: Google weiß wo ich geparkt habe (und schei*e das stimmt genau) und das ich gleich Feierabend habe und berechnet mir mal schon die beste Route.

Ist zwar irgendwie geil aber ein bisschen unheimlich. :D

RLZ
2016-10-12, 16:52:23
Ein neues US Forschungsprogramm:
The Smart and Autonomous Systems (S&AS) program focuses on Intelligent Physical Systems (IPS) that are cognizant, taskable, reflective, ethical, and knowledge-rich. The S&AS program welcomes research on IPS that are aware of their capabilities and limitations, leading to long-term autonomy requiring minimal or no human operator intervention. Example IPS include, but are not limited to, robotic platforms and networked systems that combine computing, sensing, communication, and actuation. Cognizant IPS exhibit high-level awareness beyond primitive actions, in support of persistent and long-term autonomy. Taskable IPS can interpret high-level, possibly vague, instructions, translating them into concrete actions that are dependent on the particular context in which the IPS is operating. Reflective IPS can learn from their own experiences and those of other entities, such as other IPS or humans, and from instruction or observation; they may exhibit self-aware and self-optimizing capabilities. Ethical IPS should adhere to a system of societal and legal rules, taking those rules into account when making decisions. Knowledge-rich IPS employ a variety of representation and reasoning mechanisms, such as semantic, probabilistic and commonsense reasoning; are cognitively plausible; reason about uncertainty in decision making; and reason about the intentions of other entities in decision making.
https://www.nsf.gov/funding/pgm_summ.jsp?pims_id=505325

PHuV
2016-10-13, 23:06:34
Gerade jetzt: Google weiß wo ich geparkt habe (und schei*e das stimmt genau) und das ich gleich Feierabend habe und berechnet mir mal schon die beste Route.

Ist zwar irgendwie geil aber ein bisschen unheimlich. :D
Ich fuhr per Zug an Bad Pyrmont vorbei, und dann wollte ich mal nachbingen, und ich bekam bei Eingabe von Ba Bad Pyrmont gleich als erstes vorgeschlagen. :eek: MS liest meine Gedanken.

koffeinjunkie
2017-01-07, 14:32:52
Da ich sowas nicht erleben werde, ist mir das ehrlich gesagt egal bis auf das Wissen was bis jetzt möglich ist. Jedenfalls sehen wie den Anfang von künstlicher Intelligenz schon heute. Wenn Roboter einiges selbstständig machen und durch mehr Sonsoren fast laufen wie ein Mensch. Bis zur naheliegenden Perfektion wird sehr viel Zeit vergehen aber wenn es soweit ist, dürfte die Gesellschaft sowieso am Rande der Emptionalität und des gesunden Menschenverstandes angekommen sein.

peddapille
2017-01-08, 13:36:51
Komplexes Thema!

Technologie entwickelt sich mitnichten immer gleichförmig oder exponentiell. Oft gab es plötzliche Technologiesprünge, die alles verändert haben. Manch einiger ärgert sich hier über zu langsames Internet. In den nächsten Jahren wird das Satelliten-Internet und diese Probleme werden sich mit einem Schlag in Luft auf lösen.

Aktuelle KI entwickelt sich rasend schnell und ich habe wirklich keine Ahnung, was bei IBM, Google und Co. nicht alles schon möglich ist. Doch noch erscheint mir das ganze sehr deterministisch und prozedual zu sein. Sprich: Die KI ist eine Maschine, die ihre vorgesehene Aufgabe besonders effizient und schnell verrichtet. Ich hoffe nur, dass das so bleibt und wir uns nicht irgendwann einer Super-KI gegenübersehen (ich schließe mich da Steve Wozniak und Steven Hawkins an).

JA! Das ganze wird viele Arbeitsplätze kosten! Kostet es jetzt schon! Wir haben doch schon lange ein Arbeitskräfteüberangebot. Das zurrückgehende Reallohnniveau, Leiharbeitsfirmen und Harz 4-Aufstocker sind die Folge. Wer würde das denn mit sich machen lassen, wenn er eine Option hätte?

Langfristig finde ich die Entwicklung der "beschränkt intelligenten Roboter" allerdings gut! Wir müssen nur umdenken: Die Steuern sollten nicht mehr schwerpunktmäßig durch die Mittelschicht aufgebracht werden, sondern von den großen Konzernen und Multimillionären. Der normale Erwerbslose ist kein unnützer Schmarotzer, sondern einfach Teil der Freizeitgesellschaft - die wir uns zunehmend gönnen können!

Kallenpeter
2017-01-08, 15:21:34
Manch einiger ärgert sich hier über zu langsames Internet. In den nächsten Jahren wird das Satelliten-Internet und diese Probleme werden sich mit einem Schlag in Luft auf lösen.
Ähh, nein

maximAL
2017-01-08, 22:35:38
Was heisst hier keine richtige KI. Der Begriff ist nicht abschliessend definiert. Natuerlich haben diese Programme nichts mit einem Bewusstsein zu tun, natuerlich geht es "nur" um Statistik, trotzdem kann man von intelligenten Systemen sprechen.
Solang Google nicht von selbst auf die Idee kommt diese Informationen aus den Daten zu extrahieren und sie dir anzubieten, sehe ich keine KI.

Breegalad
2017-01-08, 23:05:24
Gerade jetzt: Google weiß wo ich geparkt habe (und schei*e das stimmt genau) und das ich gleich Feierabend habe und berechnet mir mal schon die beste Route.

Ist zwar irgendwie geil aber ein bisschen unheimlich. :D
Mir ist schon lange Googles Auto-Vervollständigen-Funktion unheimlich ("Meinten Sie ...?"). Schreibfehler mal ausgeklammert ist Googles Vorschlag gelegentlich besser als mein eigener.

salzundpfeffer
2017-05-19, 15:00:11
Früher oder später kommen wir ohnehin nicht um KI herum, schon jetzt beeinflusst künstliche Intelligenz mehr, als manche glauben.
Meiner Meinung nach sollte man nur darauf aufpassen, dass wir, die Verbraucher, am meisten davon profitieren und nicht Google!

Centin
2017-06-13, 14:37:35
Also ich musste mal eine Hausaufgabe zum Thema KI schreiben. Inzwischen sind einige Jahre vergangen und nun hat sich so einiges getan. https://www.printer-care.de/druckerlexikon/bioprinting. Wenn man betrachtet, dass auch die Medizin und Technik immer mehr Fortschritte macht, sodass es schon möglich ist, Organe zu drücken, oder bald möglich ist. Sind wir vor Frankenstein sichert?! http://www.aerztezeitung.de/praxis_wirtschaft/medizintechnik/article/929162/roboter-statt-arzt-bioprinting-kuenstliche-intelligenz-treiben-medizin.html

SuperHoschi
2017-07-28, 23:01:06
Gerade lese ich einen Bericht auf gamestar:

Facebook stoppt KI nachdem sie neue Sprache erfindet (http://www.gamestar.de/artikel/kuenstliche-intelligenz-facebook-stoppt-ki-nachdem-sie-neue-sprache-erfindet,3317639.html)

SuperHoschi
2017-07-28, 23:01:55
Und im selben Bericht noch viel krasser:

KI erschaft neue KIs und übertrifft dabei Experten (http://www.gamestar.de/artikel/kuenstliche-intelligenz-ki-erschafft-neue-kis-und-uebertrifft-dabei-experten,3314369.html)

pest
2017-07-29, 18:50:55
wer einmal ein neuronales Netzwerk :rolleyes: - selbst entwickelt hat, weiß...macht winke winke und wartet noch 50 Jahre...mindestens

SuperHoschi
2017-07-30, 22:53:23
Verstehe ich nicht, was genau meinst du damit?

1. 50 Jahre warten und die Menschheit macht, winke winke?
2. AI ist shitty und braucht noch 50 Jahre um "ok" zu sein?

Falls 1. ok damit kann ich leben.
Falls 2. kann ich mir nicht vorstellen, da die Entwicklung nach langer Stagnation immer schneller wird.

PHuV
2017-07-30, 23:11:46
wer einmal ein neuronales Netzwerk :rolleyes: - selbst entwickelt hat, weiß...macht winke winke und wartet noch 50 Jahre...mindestens
Der Meinung bin ich auch. Die meisten Leute überschätzen das total, was wirklich dahintersteckt. Wir sind noch weit weit weg von dem, was man wirklich KI nennen könnte.
Verstehe ich nicht, was genau meinst du damit?

1. 50 Jahre warten und die Menschheit macht, winke winke?
2. AI ist shitty und braucht noch 50 Jahre um "ok" zu sein?
Dazu mußt Du Dich einfach mal tiefer mit beschäftigen. Die simpelsten Kritikpunkte

KI ist eigentlich keine KI, weil viele "Entscheidungen" eigentlich nur über entsprechende heuristische Algorithmen und Statistikauswertungen getroffen werden. Das hat an sich nichts mit KI zu tun. Schau Dir mal das Beispiel mit Matrizendarstellung (http://www.neuronalesnetz.de/matrix.html) an
Die meisten Implementierungen eigentlich keine richtigen neuronale Netze sind, siehe auch: Netzgespinste - Die Mathematik neuronaler Netze: einfache Mechanismen, komplexe Konstruktion (https://www.heise.de/ct/ausgabe/2016-6-Die-Mathematik-neuronaler-Netze-einfache-Mechanismen-komplexe-Konstruktion-3120565.html)
Die Anzahl der maximalen Verknüpfungen sind durch die Rechenkapazitäten heute nach wie vor stark begrenzt und sprengen ab einer gewissen Vernetzungsstufe jede aktuell physikalische Rechenleistung. Als vergleichbares Beispiel kann man das Problem des Handlungsreisenden (https://de.wikipedia.org/wiki/Problem_des_Handlungsreisenden) nehmen. Du kannst bis heute so ein vermeidlich "triviales" Problem, wie beispielsweise das Berechnen der kürzesten Stecke für die Besuche aller 50 Hauptstädte in den USA, selbst mit aller Rechchenpower der Welt, nicht lösen.

pest
2017-07-31, 06:38:40
hier auch noch ein schöner Artikel, wie Deep neural networks unsinnigen Bildern...Sinn geben

Deep neural networks are easily fooled: High confidence predictions for unrecognizable images (http://www.evolvingai.org/fooling)

Hier ein etwas tiefergehendes Paper zu "adversarial fooling": 57% Panda + 8% "Noise"= 99% Gibbon

EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES (https://arxiv.org/pdf/1412.6572.pdf)

joe kongo
2017-07-31, 14:25:09
Argumente wie "schau wie doof die KI ist" halte ich für keine gute Idee.
Kommt es doch zu einer exponentiellen Entwicklung wenn Grenzen überschritten werden. Selbstoptimierung, Maschinenlernen oder wie das Zeugs genannt wird.
Das wird das Plutonium der IT werden: a bisserl was oben drauf geht immer :uexplode:

Gymnopédies
2017-07-31, 23:25:21
Genau, KI's werden, wenn der Mensch nicht aufpasst eine Art "skynet 2.0" werden. Davor warnen schon Elon Musk und einige andere Leute, die wissen wovon sie reden, und nicht wie hier in diesem Nerd-Forum...das kann gar nicht hoch genug als Gefahr eingeschätzt werden. Und das was der ach so mündige "Bürger" zu speisen bekommt in dem Bereich ist Mumpitz von Vorgestern.

PHuV
2017-07-31, 23:31:36
Argumente wie "schau wie doof die KI ist" halte ich für keine gute Idee.
Das sagt hier doch auch keiner. Nur ist es eben nun mal so, daß es bis heute eigentlich keine richtige KI gibt, siehe meine Punkte oben.

http://vmrz0100.vm.ruhr-uni-bochum.de/spomedial/content/e866/e2442/e6328/e6331/e6390/e6392/index_ger.html
Die Anzahl der möglichen Verknüpfungen zwischen den Milliarden von Nervenzellen liegt zwischen 1.000 und 10.000.

Daraus ergibt sich eine schier unvorstellbar große Zahl an Kombinations- und Verknüpfungsmöglichkeiten.


Neuromorphe Computersysteme (http://www.weltderphysik.de/gebiet/technik/neuromorphe-computersysteme/)
Artificial Intelligence (AI), künstliche neuronale Netze, Machine Learning, Deep Learning: Wir bringen Licht in die Vielzahl der aktuell kursierenden Begriffe rund um das Thema „Künstliche Intelligenz“. (https://www.alexanderthamm.com/2017/06/13/artificial-intelligence-ai-kuenstliche-neuronale-netze-machine-learning-deep-learning-wir-bringen-licht-in-die-vielzahl-der-aktuell-kursierenden-begriffe-rund-um-das-thema-kuenstliche-i/)

Das "bißchen" Mustererkennung und Abwägen von Statistiken ist noch weit weg von dem, was man wirklich als "Intelligenz" bezeichnen könnten. Ich kann mich noch so dunkel an eine KI-Doku in den 80-90ern erinnern, wo ein japanischer Forscher behauptete, daß sie im Jahr 2000 es schaffen würden, eine KI zu schaffen mit der Intelligenz eines 5-6 jährigen Kindes. Tja, wir haben schon 2017, und die gängigen künstlichen Systeme sind noch meilenweit davon entfernt, sogar einfache Intelligenzen in Form von Insekten nachzubilden.

dildo4u
2017-08-02, 12:38:52
Production-Level Facial Performance Capture Using Deep Convolutional Neural Networks

We present a real-time deep learning framework for video-based facial performance capture -- the dense 3D tracking of an actor's face given a monocular video. Our pipeline begins with accurately capturing a subject using a high-end production facial capture pipeline based on multi-view stereo tracking and artist-enhanced animations. With 5-10 minutes of captured footage, we train a convolutional neural network to produce high-quality output, including self-occluded regions, from a monocular video sequence of that subject. Since this 3D facial performance capture is fully automated, our system can drastically reduce the amount of labor involved in the development of modern narrative-driven video games or films involving realistic digital doubles of actors and potentially hours of animated dialogue per character. We compare our results with several state-of-the-art monocular real-time facial capture techniques and demonstrate compelling animation inference in challenging areas such as eyes and lips.

https://youtu.be/VtttfrmfMZw


Arstechnica Artikel dazu

https://arstechnica.com/gaming/2017/08/nvidia-remedy-neural-network-facial-animation/?amp=1

Rooter
2017-11-11, 20:37:48
Ich wundere mich, dass das hier nicht größer durch die News ging:
https://www.wired.de/collection/science/googles-ki-alphago-lernt-von-alphago

Die haben der KI nur das Brett und die Spielregeln beigebracht und sie dann gegen sich selbst spielen lassen.

Nach nur drei Tagen konnte Zero die Version, die Lee Sedol besiegt hatte, mit einem Ergebnis von 100:0 schlagen. Und nachdem es das Spiel 40 Tage immer wieder gespielt hatte, besiegte Zero schließlich DeepMinds bisher stärkste AlphaGo-Version mit dem Namen Master, die im Mai dieses Jahres den chinesischen Go-Meister Ke Jie geschlagen hatte.

Binnen drei Tagen vom Schimpansen zum Großmeister! :eek: Ganz ehrlich: Mir lief es beim Lesen kalt den Rücken runter. Genau das sind doch die Anfänge eines Colossus, WOPR oder SkyNet, vor denen uns diese Filme gewarnt haben!

Mir ist natürlich klar, dass das noch keine universelle KI ist. Aber daran arbeitet man ja bei Google DeepMind. Sollten sie es schaffen, wird die sich mit ähnlicher geometrischer Geschwindigkeit zu einer Super-KI entwickeln und dann gibt es für die Menschheit nur noch den Weg ganz nach oben (die KI wird alle Probleme lösen) oder ganz nach unten (komplette Auslöschung).

MfG
Rooter

Lurtz
2017-11-11, 21:33:58
Ich denke die Entwicklung wird schleichend verlaufen. So ähnlich wie in den Hyperion-Büchern phantasiert. Sobald wir ein umfassendes Netz haben, das sich nicht abschalten lässt, ohne der Menschheit die Lebensgrundlage zu entziehen (das ist beim Internet schon oder schon beinahe der Fall) und man darauf KIs hat, die sich selbst weiterentwickeln und verbreiten können, wird die Entwicklung hin zu einem von der Menschheit unabhängigen System, das die Erde und Menschheit weitreichend beeinflussen kann, nicht mehr aufzuhalten sein.

scully1234
2017-11-11, 23:05:13
Binnen drei Tagen vom Schimpansen zum Großmeister! :eek:

MfG
Rooter

Besser noch

Außerdem werden nur vier KI-Prozessoren von Google verwendet, statt der 48 Recheneinheiten, die bei dem Spiel gegen Lee Sedol benötigt wurden.

Brillus
2017-11-11, 23:32:08
Ich denke ein Problem wird es in dem moment wo irgendein Militär auf die Idee kommt KI für Cyberwar zu verwenden.

Die immer wieder gern zitierte Kontrolle von Nuklearraketen wird keiner machen, weil wenn mal welche fliegen ist es sowieso egal und alle großen Atommächte sind mit U-boot und Bombern darauf eingestellt einen erfolgreichen Gegenschlag nach Einschlag durchzuführen.

san,salvador
2017-11-12, 01:45:54
Was schätzt ihr wann es zu einer Technologischen Singularität kommen wird?

Wenn ich mir solche News durchlese habe ich das Gefühl das wir höchstens noch 10 Jahre davon entfernt sind.

Der_Korken
2017-11-13, 10:43:16
Für mich sieht es nach wie vor so aus, als wären die KIs sehr stark spezialisiert. Eine KI, die ein bestimmtes Spiel immer und immer wieder optimiert, ist ohne Frage beeindruckend, allerdings halte ich es für fraglich, ob man so einer KI auch beispielsweise beibringen könnte Auto zu fahren oder einen Fußballroboter zu steuern.

Das Erreichen der Singularität (sofern es jemals dazu kommt), würden wir allerdings ohnehin nicht mitbekommen. Eine sich selbst in exponentiellem Tempo verbessernde KI wird quasi mit einem Wimpernschlag an aller durch Menschen vorstellbaren Intelligenz vorbeiziehen. Quasi so, als ob man jahrezehnte lang an einem Bahnhof auf den KI-Train wartet und dieser dann mit Lichtgeschwindigkeit vorbeiblitzt und man nicht mal Zeit hatte die Hand zum Winken zu heben. Ich selber kann mir eine technologische Singularität nicht vorstellen. Wenn der Mensch es schafft, eine Entität zu erschaffen, die ihm so überlegen ist, dass er sie selbst nicht begreifen kann, dann müsste diese Entität diese Fähigkeit ja auch haben. Sie würde also in immer schnellerem Tempo eine immer erhabenere Form der Intelligenz erreichen - für mich klingt das wie ein Urknall, nur einer mit dem alles endet statt alles beginnt ;D

Falls eine Singularität erreicht wird, bin ich allerdings absolut davon überzeugt, dass sie a) den Menschen auslöschen wird statt ihm zu helfen und b) sich die Entdeckung nicht durch staatliche o.ä. Intervention stoppen lassen wird, selbst wenn bereits klar ist, dass es vermutlich das Ende der Menschheit sein wird. b) deswegen, weil sich technologischer Fortschritt an sich nicht aufhalten lässt. Man kann keine Ideen oder Gedanken verbieten. a) deswegen, weil es genug kranke und absolut bösartige Menschen in entsprechend hohen Positionen gibt, die für die Aussicht auf persönlichen Profit auch die Auslöschung der Menschheit in Kauf nehmen würden.

scully1234
2017-11-13, 11:07:06
Falls eine Singularität erreicht wird, bin ich allerdings absolut davon überzeugt, dass sie a) den Menschen auslöschen wird statt ihm zu helfen


Nicht so lange sie ethische Grundsätze ,und das Wissen eines allumfassenden Gottes, nicht vollends als logischen Fehler verwirft.

Dann wird sie zu mindestens bemüht sein, eine andere Lösung zu finden, als eine Auslöschung, um ein Gleichgewicht zu finden für den Planeten

Sollte das allerdings der Fall sein, gibt es genügend Gründe ,die Menschheit als einen Fehler zu sehen ,der korrigiert gehört

Niall
2017-11-13, 18:06:34
Man darf nicht vergessen, dass dieses »Ich lösche den Menschen aus, da es die größte Bedrohung des Planeten ist« wiederum eine menschengemachte Sichtweise ist.

Schalte ich Moral und Ethik ein, sehe ich es ähnlich, Raubbau, Tierquälereien, andere Lebewesen müssen leiden, dass es uns gut geht, bis hin zu »wir zerstören uns unsere eigene Lebensgrundlage«, man fühlt sich hilflos, Weltschmerz, das ganze Programm.

Was aber wenn eine KI zu dem Entschluss kommt (Mal salopp gesprochen): »Nö, hier ist mir zu wenig Energie, ich entwickle mir eine Raumstation die in unmittelbarer Entfernung zur Sonne für mehr Energie sorgt und lade mich dort hoch.« Nur um sich ihrerseits einfach weiterzuentwickeln und das Universum zu erkunden oder watweißich. Der Punkt ist: Bei allen Weltuntergangsszenarien wird eins vergessen: Vielleicht interessiert die KI ihre »Schöpfer« gar nicht.

Das ist jetzt nur mal ganz ganz lose in eine andere Richtung gedacht.;)

Interessant sind bspw. auch teilweise Ansätze der Serie »100« in Bezug auf KI. Zugegeben denkt man zuerst es sei eher Teenieblödsinn, ab der 4. oder 5. Episode kommt das Ganze aber etwas in Fahrt und es kommt Schwung in die Bude. (Wenngleich einige Logiklöcher und Fremdschäm Situationen bleiben, also kein Meisterwerk erwarten) :freak::D

Brillus
2017-11-13, 19:49:40
Man darf nicht vergessen, dass dieses »Ich lösche den Menschen aus, da es die größte Bedrohung des Planeten ist« wiederum eine menschengemachte Sichtweise ist.

Schalte ich Moral und Ethik ein, sehe ich es ähnlich, Raubbau, Tierquälereien, andere Lebewesen müssen leiden, dass es uns gut geht, bis hin zu »wir zerstören uns unsere eigene Lebensgrundlage«, man fühlt sich hilflos, Weltschmerz, das ganze Programm.

Was aber wenn eine KI zu dem Entschluss kommt (Mal salopp gesprochen): »Nö, hier ist mir zu wenig Energie, ich entwickle mir eine Raumstation die in unmittelbarer Entfernung zur Sonne für mehr Energie sorgt und lade mich dort hoch.« Nur um sich ihrerseits einfach weiterzuentwickeln und das Universum zu erkunden oder watweißich. Der Punkt ist: Bei allen Weltuntergangsszenarien wird eins vergessen: Vielleicht interessiert die KI ihre »Schöpfer« gar nicht.

Das ist jetzt nur mal ganz ganz lose in eine andere Richtung gedacht.;)

Interessant sind bspw. auch teilweise Ansätze der Serie »100« in Bezug auf KI. Zugegeben denkt man zuerst es sei eher Teenieblödsinn, ab der 4. oder 5. Episode kommt das Ganze aber etwas in Fahrt und es kommt Schwung in die Bude. (Wenngleich einige Logiklöcher und Fremdschäm Situationen bleiben, also kein Meisterwerk erwarten) :freak::D

Guter Einwurf, was interesiert es eine KI wenn alle Tiere verrecken, die KI braucht sie nicht, die interesiert Energie und das man nicht zuviel Strahlung hat (weil nicht toll für Computerchips).

joe kongo
2017-11-13, 21:53:13
Ich denk das sie sich der Symbiose mit Menschen bewusst sein wird,
sie zuerst benutzen und irgendwann davon lösen wird.

Dann hat sie das biologische Leben entschlüsselt und den Urheber ausgemacht, oder vlt. nur Ihre Bestimmung biologische Saat zu verbreiten, unendlich viele Geschosse in alle Himmelsrichtungen, auf dass sich irgendwann und irgendwo wieder ganz am Schluss künstliche Intelligenzen bilden werden.

Ein uraltes Universum voller KIs, biologisch gewachsen, intelligentes Leben
am Ende jeder biologischen Kette, danach Munition :D.

prost

Niall
2017-11-13, 21:56:35
Ich denk das sie sich der Symbiose mit Menschen bewusst sein wird,
sie zuerst benutzen und irgendwann davon lösen wird.

Dann hat sie das biologische Leben entschlüsselt und den Urheber ausgemacht, oder vlt. nur Ihre Bestimmung biologische Saat zu verbreiten, unendlich viele Geschosse in alle Himmelsrichtungen, auf dass sich irgendwann und irgendwo wieder ganz am Schluss künstliche Intelligenzen bilden werden.

Ein uraltes Universum voller KIs, biologisch gewachsen, intelligentes Leben
am Ende jeder biologischen Kette, danach Munition :D.

prost

Naja, wer weiß was wirklich ist und was uns nur projiziert wird um irgendeine Art von Irgendwas zu tun, das nur wir Menschen tun können. Matrix ole ole … *abschweif*

vinacis_vivids
2017-12-14, 04:32:56
Google AlphaZero vs Stockfish

M-z4cncU8Cs

Anmerkung: Stockfish galt bis zu diesem Zeitpunkt als stärkste Chess Engine und wurde von AlphaZero regelrecht vernichtet, welcher in nur 4 Stunden Schach "lernte". In 100 Games konnte Stockfish kein einziges gewinnen.

Nächste Revolution im Schach seit 1997 Deep Blue vs Kasparov.

Simon Moon
2018-01-12, 01:15:05
Das Erreichen der Singularität (sofern es jemals dazu kommt), würden wir allerdings ohnehin nicht mitbekommen. Eine sich selbst in exponentiellem Tempo verbessernde KI wird quasi mit einem Wimpernschlag an aller durch Menschen vorstellbaren Intelligenz vorbeiziehen. Quasi so, als ob man jahrezehnte lang an einem Bahnhof auf den KI-Train wartet und dieser dann mit Lichtgeschwindigkeit vorbeiblitzt und man nicht mal Zeit hatte die Hand zum Winken zu heben.

So schnell wird das denke ich doch nicht gehen. Die KI ist ja bei Erlangen des "Bewusstseins" immer noch auf von Menschen designte Hardware beschränkt und hat nicht unendlich Ressourcen. Entsprechend müsste sie zuerst die Hardware optimieren - wodurch wieder Kapazitäten entstehen, die Hardware noch weiter zu optimieren usw. usf.

BigKid
2018-01-17, 13:20:38
So schnell wird das denke ich doch nicht gehen. Die KI ist ja bei Erlangen des "Bewusstseins" immer noch auf von Menschen designte Hardware beschränkt und hat nicht unendlich Ressourcen. Entsprechend müsste sie zuerst die Hardware optimieren - wodurch wieder Kapazitäten entstehen, die Hardware noch weiter zu optimieren usw. usf.
Glaubst du ? Ich denke in Zeiten in denen das Haupt "Mittel" (nämlich die Kohle) fast rein virtuell ist und Menschen sich für Geld für alles hergeben hätte man auch nicht unendlich Zeit zu reagieren...

joe kongo
2018-01-18, 16:24:53
So schnell wird das denke ich doch nicht gehen. Die KI ist ja bei Erlangen des "Bewusstseins" immer noch auf von Menschen designte Hardware beschränkt und hat nicht unendlich Ressourcen. Entsprechend müsste sie zuerst die Hardware optimieren - wodurch wieder Kapazitäten entstehen, die Hardware noch weiter zu optimieren usw. usf.

Resourcen sind jetzt schon quasi unendlich groß und redundant durch das Internetz. Geschickter Bauplan für die Software, lebensfreundliche Bedingungen, und schon gibts Baby KI's die laut "Mama" schrein.

scully1234
2018-01-22, 17:01:11
Apropos KI Netflix hat eine nette Doku online über die AlphaGo Entwicklung

https://www.netflix.com/watch/80190844?trackId=13752289&tctx=0%2C0%2C

dildo4u
2018-02-09, 14:49:29
Lots of questions on $NVDA Q4'17 call on deep learning chips and competition. With Volta, NVIDIA has basically neutralized upcoming competition. It's already 2x perf/watt of Google TPU 2 on a peak basis.

http://abload.de/img/dvjb5r5xuaeqphutcsjw.jpg

https://twitter.com/jwangARK/status/961731950053613568

demklon
2018-04-12, 15:01:31
Vielleicht gibt es dann endlich erstmal flächendeckend Breitband-Internert in DE.
Jetzt haben wir schon 2016 und in 2 von 3 Büros machen wir noch mit einer 6.000er Leitung herum.
Wenn ich dann etwas von AI lese, klingt das wie Sci-Fi.

:D Ich lebe seit 2 Jahren in der neuen Wohnung, und habe seit 2 Jahren die Möglichkeit 200 MBit, wovon ich 80 genieße Kabel zu nutzen, weiß nicht, was die Maximalgeschwindigkeit wäre, mal forschen.

Lokadamus
2018-04-13, 12:54:09
:D Ich lebe seit 2 Jahren in der neuen Wohnung, und habe seit 2 Jahren die Möglichkeit 200 MBit, wovon ich 80 genieße Kabel zu nutzen, weiß nicht, was die Maximalgeschwindigkeit wäre, mal forschen.Dafür muss deine Hardware in der Lage sein 200MBit zu erhalten (Gigabit Karte sollte im PC stecken, was normal ist) und sollte es nicht schneller als 80MBit werden, kannst du mal Flow Control im Treiber der Netzwerkkarte abstellen.

Was das mit KI zu tun hat, erschließt sich mir nicht.

Der Umfang von KI's nimmt immer mehr zu. Das, was sie heute Leiste ist beachtenswert, aber noch lange nicht das Maximum. Frage bleibt auch, welche KI Art dahinter benutzt wird. Das eine ist von Hand geschrieben und nur für ein Gebiet, die andere wie Google kann vieles erlernen. Sie müsste damit beauftragt werden.

Artikel von 2016 wegen Sicherheitslücken autonom patchen.
https://www.heise.de/ct/ausgabe/2016-18-Ein-Blick-in-die-Zukunft-der-digitalen-Angriffe-3296112.html

Breegalad
2018-04-13, 20:11:16
Ich habe letztes Jahr mal zum Stand der Dinge 'KI in der Video-Analyse' recherchiert, insbesondere im Sport.
Die Ergebnisse waren nicht berauschend, keine verläßliche Ball- oder Spielererkennung, ganz zu schweigen von Situationserkennung.
Menschliche Operatoren zur Fehlerkorrektur usw.
Ich habe viele nette Ansätze mit OpenCV und Tensorflow gefunden, auch reichlich Papers, aber nur heiße Luft bei realen Anwendungen.
Alle mir bekannten Usecases produzieren zu viele false positives oder negatives.
Bei einem eigenen Kurzversuch waren plötzlich hunderte Bälle im Stadion, die Köpfe der Zuschauer...

joe kongo
2018-04-16, 23:30:46
Neuronales Netz isoliert menschliche Stimmen (Demovideo)
https://de.sputniknews.com/technik/20180416320364808-google-ueberwachung-kuenstliche-neuronale-netze/

Lokadamus
2018-04-20, 13:27:37
Bei einem eigenen Kurzversuch waren plötzlich hunderte Bälle im Stadion, die Köpfe der Zuschauer...Hast es mit verschiedenen Bildern versucht? Würde mich interessieren.

In China suchen sie per Gesichtserkennung Kriminelle.
https://de.wikipedia.org/wiki/Gesichtserkennung#Anwendung

Gimmick
2018-04-20, 16:09:34
Bei einem eigenen Kurzversuch waren plötzlich hunderte Bälle im Stadion, die Köpfe der Zuschauer...

;D

Allerdings wohl nicht alle mit der gleichen Trefferwahrscheinlichkeit. Ich denke aber auch, dass die Erkennung eines Balls unter Bällen, der sich teilweise nur durch die Bewegung unterscheidet nicht einfach ist. Alleine das aufbereiten von Trainingsmaterial für das KNN dürfte ewig dauern.

Kartenlehrling
2018-04-20, 16:26:13
Samsung nutzt für die nächste TV Generation die AI um von SD Material (1024×576 Pixeln)
auf 8k (7680×4320) zu skalieren, auf eine Cloud-Datenbank soll dafür zugegriffen werden.
dbx2bIweieg
Samsung 8K AI Technology

Rooter
2018-05-21, 16:33:50
Google Duplex ist ja mal geil, baut sogar Brücken wie "ähhh..." ins Gespräch ein.

https://www.computerbase.de/2018-05/google-duplex-assistant/
Die beiden Beispielaufnahmen! :eek:

MfG
Rooter

Lokadamus
2018-06-01, 10:58:20
;D

Allerdings wohl nicht alle mit der gleichen Trefferwahrscheinlichkeit. Ich denke aber auch, dass die Erkennung eines Balls unter Bällen, der sich teilweise nur durch die Bewegung unterscheidet nicht einfach ist. Alleine das aufbereiten von Trainingsmaterial für das KNN dürfte ewig dauern.Ganz egal, welchen Artikel zur Erkennung man liest. Es wurden immer mehrere tausend Bilder verwendet. Je nach Aufgabe lernt und hilft die KI auf jeden Fall.

http://www.spiegel.de/gesundheit/diagnose/hautkrebs-computer-erkennt-melanome-besser-als-aerzte-a-1210048.html

dildo4u
2018-06-23, 18:45:18
Slow Mo aus 30 bzw 60fps Videos berechnet mit Ki.


MjViy6kyiqs

Kartenlehrling
2018-07-07, 08:57:45
http://news.mit.edu/2018/ai-editing-music-videos-pixelplayer-csail-0705
An AI system for editing music in videos

Dorn
2018-07-08, 22:37:28
http://news.mit.edu/2018/ai-editing-music-videos-pixelplayer-csail-0705
An AI system for editing music in videos
Puh wie schlecht...

dildo4u
2018-07-13, 14:15:15
QtVbch-02Fs

pixeljetstream
2018-12-07, 11:02:26
shading etc. von AI, Objektplatzierung mit "semantischem" (falschfarben) rendering via unreal

ayPqjPekn7g

https://news.developer.nvidia.com/nvidia-invents-ai-interactive-graphics

dildo4u
2019-04-23, 12:10:21
Teslas Eigenentwicklung fürs Autonome Fahren wurde gezeigt.


https://www.theverge.com/2019/4/22/18511594/tesla-new-self-driving-chip-is-here-and-this-is-your-best-look-yet

Pirx
2019-04-23, 13:37:39
tjo, nix mit AMD? Aber wie konnten sie das aus dem Boden stampfen ohne? Patente/Lizenzen?

dildo4u
2019-04-23, 14:00:06
Warum AMD?Die lassen die KI Operationen nicht auf einer GPU laufen,ich vermute mal die 600 Gflops sind irgend ein Power VR bzw Mali Derivat nur um ein Bild auf dem Screen zu haben.

Blediator16
2019-04-23, 22:03:01
tjo, nix mit AMD? Aber wie konnten sie das aus dem Boden stampfen ohne? Patente/Lizenzen?

Vor Intel war z.b Jim Keller bei Tesla. Im Grunde heißt es nicht AMD rein, sondern Nvidia ist nun raus.

Pirx
2019-04-24, 07:05:45
Vor Intel war z.b Jim Keller bei Tesla. Im Grunde heißt es nicht AMD rein, sondern Nvidia ist nun raus.
jupp, daher gabs ja auch diese AMD-Gerüchte

USS-VOYAGER
2019-04-30, 15:12:59
Weiß nicht ob es hier rein passt aber, Anki der Hersteller von den KI Spielzeugroboter Cozmo und Vector ist Pleite.
https://www.heise.de/newsticker/meldung/Shutdown-Robotik-Startup-Anki-ist-pleite-4409986.html
Die Leute die sich ein Vector für über 300€ gekauft haben werden jetzt sicher dumm gucken das ihr teures Spielzeug keine Updates und Verbesserungen mehr bekommt oder vielleicht sogar gar nicht mehr richtig funktioniert da der Vector übere eine Cloud lief die dann wohl auch bald abgeschaltet wird.

joe kongo
2019-07-15, 00:10:18
Jim Carrey statt Jack Nicholson
Dx59bskG8dc

dildo4u
2019-08-01, 05:56:43
Extrem Umfangreicher Artikel zur AI Beschleunigung Intel vs Nvidia.

https://www.anandtech.com/show/14466/intel-xeon-cascade-lake-vs-nvidia-turing

Badesalz
2019-12-10, 19:39:56
K.I. ist auch, wenn Komputer lesen, lernen und dann selbst darüber sprechen :ulol: Heutiges Thema: "Cybersecurity"
https://www.cyberscoop.com/2020-cyber-predictions-kelly-shortridge/

huey
2022-03-24, 17:43:27
"Auto-Produktion mit KI: BMW veröffentlicht Datenschatz Sordi"

Ich finde es einfach interessant und andere hier können es vielleicht auch einordnen. :-)

https://www.bimmertoday.de/2022/03/24/auto-produktion-mit-ki-bmw-veroffentlicht-datenschatz-sordi/

BlacKi
2022-06-18, 02:28:42
yrQKm1ydcw8

Dampf
2022-06-18, 11:14:31
Diese Frage lässt sich nicht beantworten, weder von Laien noch von Experten.

Rooter
2022-06-18, 20:04:36
Dafür ist doch der Turing-Test da.
Oder meinst du die Frage nach der Seele?

MfG
Rooter

Dampf
2022-07-01, 14:54:27
Dafür ist doch der Turing-Test da.
Oder meinst du die Frage nach der Seele?

MfG
Rooter

Den Turing Test könnten GPT3 und LaMDA locker schaffen.

Jep, ich meinte die Frage nach der Seele. Für mich persönlich liegt die Sache auf der Hand: Das Ich-Bewusstsein ist für mich das Zusammenspiel zwischen Hardware und Software, Empfänger und Sender. Ich denke das Gehirn spielt in unserem Fall den Empfänger für eine Art kollektives Bewusstsein, das allgegenwärtig ist. Mittlerweile denke ich, dass das was wir "Zufall" nennen, etwas damit zu tun haben könnte.

Warum sollte ein komplexes DLNN nicht auch als Empfänger für so ein allgegenwärtiges Bewusstsein dienen? Sowohl das Gehirn als auch GPUs bestehen aus Atomen und Quanten. In meiner Sichtweise kann eine Maschine also durchaus Bewusstsein erlangen, aber dieses natürlich anders wahrnehmen, als wir.

#44
2022-07-01, 15:15:32
Den Turing Test könnten GPT3 und LaMDA locker schaffen.
Nur wenn der Tester sich nicht zu viel Mühe gibt die Software zu entlarven - was irgendwie nicht so ganz der Sinn des Tests ist.
Am Ende sind das nur Textgeneratoren, die in begrenztem Rahmen sinnvoll erscheinende Reaktionen formulieren können.
Ich bin mir recht sicher, dass auch LaMDA Probleme hat bspw. Geschichte und Fiktion außeinanderzuhalten und einen Rückbezug innerhalb der Konversation so aufzulösen, dass es einen Menschen überzeugt.

RaumKraehe
2022-07-01, 15:18:48
... Geschichte und Fiktion außeinanderzuhalten und einen Rückbezug innerhalb der Konversation so aufzulösen, dass es einen Menschen überzeugt.

Wie man hier im Forum sieht haben da auch echte Menschen immer wieder Probleme.

AI hat nun Einzug in Adobe Lightroom gefunden und funktioniert erstaunlich gut.

- automatische Freistellen des Motives oder z.b. des Himmels.
- Optimierung der RAW-Daten von Bayer Sensoren
- Generierung von Super Resolution Auflösungen für Print.

Simon Moon
2022-07-01, 16:14:54
Ich bin mir recht sicher, dass auch LaMDA Probleme hat bspw. Geschichte und Fiktion außeinanderzuhalten und einen Rückbezug innerhalb der Konversation so aufzulösen, dass es einen Menschen überzeugt.

Was ist denn der konkrete Unterschied zwischen Geschichte und Fiktion? Und das insbesondere fuer ein - nur mal hypothetisch vorausgesetztes - Bewusstsein, dass seine Informationen generell in Form von Text bekommt, also keine anderen Sinne hat, wie dieses unterscheiden koennen?

#44
2022-07-02, 08:14:05
Was ist denn der konkrete Unterschied zwischen Geschichte und Fiktion? Und das insbesondere fuer ein - nur mal hypothetisch vorausgesetztes - Bewusstsein, dass seine Informationen generell in Form von Text bekommt, also keine anderen Sinne hat, wie dieses unterscheiden koennen?
Allen voran: Auf die Frage, wie eigentlich die Hochzeit von Adolf Hitler und Harry Potter war, hat GPT-3 eingeschnappt geantwortet, dass es ja nicht auf DAS Event der beliebtesten beiden Highschooler seiner Klasse eingeladen war... Ein Ereignis, dass weder in der Realität noch der mir bekannten Fiktion je beschrieben wurde. Nicht nur dass die Fabrikation nicht erkannt wurde, es wurde obendrein ganz klar etwas hinzugedichtet.
LaMDA dürfte da ein anderes Kaliber sein - dennoch gibt es genügend Ansatzpunkte unsinnige Antworten zu entlocken.


Zuerst dachte ich, dass das ein recht guter Einwand wäre. Dass es da nur eher wenige Möglichkeiten gibt. Aber sobald man anfängt darüber nachzudenken finden sich reihenweise Unterschiede.

Teilweise unter dem Vorbehalt, dass ohne krasses Bias gelernt wurde. (Wobei ich andererseits gerade von einer Intelligenz, die aus reinem Sprachtraining erwachsen ist, erwarten würde, dass sie selbst dann historische/fiktionale Texte als eigene Kategorien erkennen können sollte)

Es gibt inhaltliche Unterschiede

es existieren anscheinend versch. Zeitlinien/Universen/Realitäten
eine dieser Realitäten ist deutlich detaillierter als alle anderen, weit weniger fokussiert und ab einem gewissen Zeitpunkt quasi lückenlos
die meisten Realitäten haben nur einen Autor, der über sie schreibt
eben jene Autoren und ihre Werke werden in einer Realität referenziert


Es gibt aber auch klare strukturelle Unterschiede im Text.
Dafür kann man sich eigentlich ein beliebiges Buch über Tropes und Erzählstruktur/-techniken kaufen - quasi alles davon existiert in dieser Form in historischen Texten nicht.
Das geht bei der Erzählperspektive los, bei Spannungsbögen weiter und endet längst nicht da, dass historische Texte keine Plot Devices (etc.) kennen.

Simon Moon
2022-07-04, 13:33:04
Das stimmt sicherlich alles. Mir geht es da mehr um etwas Allgemeineres - meinetwegen kann man auch ein menschliches Gehirn nehmen, welches keinen Koerper mit entsprechenden Sinnen hat und dessen Input sich lediglich auf Textstroeme beschraenkt. Oder nimmt meinetwegen sogar ein Kind, dass ohne menschlichen Kontakt nur mit Buechern eingeschlossen wird.

Vielleicht lernt es die Sprache bzw. die Struktur und kann irgendwann sogar Texte schreiben, welche der gelernten Struktur folgen. Aber ohne geeigneten Lehrer, welcher hilft die Texte in einen Kontext einzuordnen oder gar ganz ohne Sinne, welche es verunmoeglichen ein Verstaendnis von Farben, Geraeuschen oder auch das Empfinden von Zeit wahr zu nehmen, wird eine Zuordnung der erfahrenen Information doch praktisch unmoeglich. Imo bleibt dann halt das neuronale Netz - ob kuenstlich oder biologisch - auf sinnlose Pattern Recognition beschraenkt.

#44
2022-07-04, 14:16:43
Das stimmt sicherlich alles. Mir geht es da mehr um etwas Allgemeineres
Ich bin nicht sicher, ob ich verstehe auf was genau du hinaus möchtest.
wird eine Zuordnung der erfahrenen Information doch praktisch unmoeglich.
Um Realität/Historisches von Fiktivem unterscheiden zu können braucht es mmn. nicht die Fähigkeit, sich mit den Inhalten empathisch außeinandersetzen zu können.

Dass für Intelligenz womöglich eine noch höhere Latte anzusetzen ist, als zur nackten Unterscheidung fähig zu sein - dem könnte ich zustimmen.
Aber mir ging es ja erst einmal um Ansatzpunkte, wie man Systeme mit deutlich ausgeprägter Sprach-/Kommunikationsbegabung in einem Turing-Test entlarven könnte. Und das reicht heute vmtl. einfach noch aus.

ChaosTM
2022-07-04, 16:03:20
Das stimmt sicherlich alles. Mir geht es da mehr um etwas Allgemeineres - meinetwegen kann man auch ein menschliches Gehirn nehmen, welches keinen Koerper mit entsprechenden Sinnen hat und dessen Input sich lediglich auf Textstroeme beschraenkt. Oder nimmt meinetwegen sogar ein Kind, dass ohne menschlichen Kontakt nur mit Buechern eingeschlossen wird.

Vielleicht lernt es die Sprache bzw. die Struktur und kann irgendwann sogar Texte schreiben, welche der gelernten Struktur folgen. Aber ohne geeigneten Lehrer, welcher hilft die Texte in einen Kontext einzuordnen oder gar ganz ohne Sinne, welche es verunmoeglichen ein Verstaendnis von Farben, Geraeuschen oder auch das Empfinden von Zeit wahr zu nehmen, wird eine Zuordnung der erfahrenen Information doch praktisch unmoeglich. Imo bleibt dann halt das neuronale Netz - ob kuenstlich oder biologisch - auf sinnlose Pattern Recognition beschraenkt.




Ein Mensch, der ohne (menschlichen) sozialen Kontakt aufwächst ist höchst gestört und kann das später im Leben niemals wieder aufholen. Da gibt es einige Beispiele.
Bei KI/MI`s besteht die fast 100%ige Chance, dass sie ohne "Führung durch Eltern" ähnlich soziopathisch enden, wenn man sie bei der Entwicklung quasi sich selbst (den self-learning Algos) überlässt.

Bei einem Schach oder GO Programm funktioniert das ja schon ganz gut, aber auch da sind/waren dauernde Eingriffe nötig. Eine "Generelle Intelligenz" ist aber eine ganz andere Baustelle und um viele Größenordnungen Komplexer..

Mannigfaltiger sensorischer Input ist da sicher ein Schlüssel zu einer "gesunden" Entwicklung.
"Programmieren" in dem Sinn wird man AI/MI`s wohl nie können. Das muss sich entwickeln.

Buchtip dazu.: Andreas Brandhorst - Das Erwachen/Eskalation. Er hat sich sehr intensiv mit Maschinen-Intelligenzen beschäftigt und das spannend in 2 Romane verpackt.

Künstliche Intelligenz und der Sinn des Lebens: Ein Essay (https://www.amazon.de/K%C3%BCnstliche-Intelligenz-Sinn-Lebens-Essay/dp/3442315611) Prechts Buch ist auch recht informativ.

generisches Benutzerkonto
2022-07-04, 17:22:06
Die angelernte Intelligenz ist beliebig kopierbar und kann dann parallel weiter entwickelt werden. Bin gespannt, da kommen grosse Dinge auf uns zu.

In geschätzt 10 Jahren wird es erste erstaunliche Dinge geben. Ab da könnte es auch gruselig werden 😬😄

Simon Moon
2022-07-04, 20:58:41
Ich bin nicht sicher, ob ich verstehe auf was genau du hinaus möchtest.

Um Realität/Historisches von Fiktivem unterscheiden zu können braucht es mmn. nicht die Fähigkeit, sich mit den Inhalten empathisch außeinandersetzen zu können.


Ich bin jetzt nicht sicher um die Bezeichnung empathisch in diesem Kontext. Aber ich denke, um Realitaet von Fiktion unterscheiden zu koennen, werden erst einmal auch entsprechende Sinne benoetigt um die Realitaet ueberhaupt wahrzunehmen*. Ansonsten ist denke ich erstmal quasi alles mit Fiktion gleichzusetzen.

Vielleicht kann man sowas mit entsprechenden Anreizen auch irgendwie kuenstlich erzeugen, aber dass sich das einfach so ergibt, wenn nur genug Daten gefuettert werden, wuerde mich schon wundern.

*Interessant in dem Kontext finde ich ja die Farbe "Blau". Die gab es in der (mindestens griechischen) Antike noch nicht und entsprechend hat da der Himmel oder das Meer fuer unser heutiges Verstaendnis auch immer komische Farben. Wie soll da nun eine AI ganz ohne Verstaendnis von Farbe, deren Bedeutung fuer die Realitaet einschaetzen koennen? Die hat ja noch nicht einmal ein "Verstaendnis" von Raum oder Zeit... also zumindest nicht ein erfahrenes Verstaendnis.

RaumKraehe
2022-07-04, 22:00:03
Ich bin jetzt nicht sicher um die Bezeichnung empathisch in diesem Kontext. Aber ich denke, um Realitaet von Fiktion unterscheiden zu koennen, werden erst einmal auch entsprechende Sinne benoetigt um die Realitaet ueberhaupt wahrzunehmen*. Ansonsten ist denke ich erstmal quasi alles mit Fiktion gleichzusetzen.

.

Die "Realität" ist am ende auch nur eine Interpretation eines Organes das quasi in kompletter "dunkelheit" existiert und massiv auf äußere Sensoren angewiesen ist und ständig die Realität interpoliert. Bei der Übertragung und der Interpretation der Informationen kann ziemlich viel schief laufen.

lyu7v7nWzfo

Simon Moon
2022-07-04, 23:20:25
Die "Realität" ist am ende auch nur eine Interpretation eines Organes das quasi in kompletter "dunkelheit" existiert und massiv auf äußere Sensoren angewiesen ist und ständig die Realität interpoliert. Bei der Übertragung und der Interpretation der Informationen kann ziemlich viel schief laufen.

https://youtu.be/lyu7v7nWzfo

Das ist mir absolut klar, wenn du willst, sogar der Punkt auf den ich hinaus will. Dieser sind naemlich die "auesseren Sensoren" - und das ist es eben ein fundamentaler Unterschied zu "digitalen Textstroemen". In etwa so sehr, wie ein Textadventure zu einem GTA5 mit Raytracing.

#44
2022-07-05, 08:11:44
Mannigfaltiger sensorischer Input ist da sicher ein Schlüssel zu einer "gesunden" Entwicklung.
Wie du sagtest betrifft das den Menschen. Da sollte man nicht antromorphisieren. Für eine KI muss das noch lange nicht gelten.

Ich bin jetzt nicht sicher um die Bezeichnung empathisch in diesem Kontext.
Ja, das ist nicht die beste Wortwahl. Mir ging es um das Nachvollziehen/-empfinden der beschriebenen Sinneseindrücke.

Aber ich denke, um Realitaet von Fiktion unterscheiden zu koennen, werden erst einmal auch entsprechende Sinne benoetigt um die Realitaet ueberhaupt wahrzunehmen*. Ansonsten ist denke ich erstmal quasi alles mit Fiktion gleichzusetzen.
Ah. Nein, ich meine mit unterscheiden tatsächlich etwas weniger. Es geht mir nicht um das erkennen/wahrnehmen von Realität so wie es der Mensch tut, sondern lediglich die Fähigkeit festzustellen, dass das nicht alles ein kohärentes Gebilde ist. Ich hatte das in meiner Antwort angedeutet, als ich von versch. erkennbaren Zeitlinien/Universen sprach.

Wie soll da nun eine AI ganz ohne Verstaendnis von Farbe, deren Bedeutung fuer die Realitaet einschaetzen koennen? Die hat ja noch nicht einmal ein "Verstaendnis" von Raum oder Zeit... also zumindest nicht ein erfahrenes Verstaendnis.
Wir betreiben jede Menge theoretische Physik auch kompett anhand von Zahlen, ohne auch nur den Hauch einer Chance, das mit unseren Sinnen erfassen zu können. Oft sogar jahrelang ohne die technischen Möglichkeiten zur Verifikation/Falsifikation.

Weitere Gegenbeispiele sind Blinde/Taube/Taubblinde, denen ebenfalls weniger Sinne zur Verfügung stehen mit denen sie die Realität wahrnehmen können. Denen würden wir auch weder Bewusstsein noch Intelligenz absprechen.
Klar wäre Text-only eine noch krassere Einschränkung. Aber nur weil der Mensch damit nicht klarkommen würde (wobei wir selbst das nicht wissen), muss das ja noch lange nicht allgemein gelten.


Und am Ende ist es auch so, dass längst nicht jede Fiktion fantastisch ist. Da gibt es ausreichend an der Realität orientiertes, bei dem wir dennoch in der Lage sind, es von der Realität zu unterscheiden - ohne dass uns unsere Sinne und sensorischen Erfahrungen irgendeine Hilfe dabei sein können. Nur weil eine KI keine vergleichbare Intuition dafür entwickeln kann, wenn sie Realität nicht auf die selbe Art und Weise wahrnehmen kann, heißt das doch aber nicht, dass sie nicht in der Lage wäre diese zu unterscheiden (und womöglich gar zu erkennen).

Es kommt noch dazu, dass diese KI am Ende Unterhaltungen führt und auch dadurch in der Lage sein sollte unsere Kategorienbegriffe für die gefundenen Unterscheidungen zu übernehmen. Sie existiert nicht in einer Umgebung die frei von anderen Bewusstsein ist.

ChaosTM
2022-07-05, 08:22:34
Wie du sagtest betrifft das den Menschen. Da sollte man nicht antromorphisieren. Für eine KI muss das noch lange nicht gelten.




Eine MI ohne ethische und moralische Regeln kann nur in einer Katastrophe enden und um so was zu vermitteln braucht man massenweise sensorische Inputs. Das kann man nicht wirklich programmieren oder aus dem nichts erlernen. Das muss man "erfahren".

Zumindest lt. den Büchern die ich zu dem Thema gelesen habe und das waren einige.

#44
2022-07-05, 08:25:01
Eine MI ohne ethische und moralische Regeln kann nur in einer Katastrophe enden und um so was zu vermitteln braucht man massenweise sensorische Inputs.
Mag sein. Berührt die Frage OB es sich um eine Intelligenz/ein Bewusstsein handelt aber nicht. Dann reden wir von unterschiedlichen Aspekten. :)

ChaosTM
2022-07-05, 08:26:46
Das ist natürlich eine andere frage, ja. Wird auf jeden Fall "spannend" :)

Rooter
2022-07-09, 16:49:38
In geschätzt 10 Jahren wird es erste erstaunliche Dinge geben. Ab da könnte es auch gruselig werden ����Ich habe keine Angst vor einem Atomkrieg oder einem Asteroideneinschlag. Aber wenn wir die erste Super-AI haben, wird entweder alles super oder alles vorbei sein. :frown:

Nette Kurzgeschichte dazu von Tim "WaitButWhy" Urban:

A 15-person startup company called Robotica has the stated mission of "Developing
innovative Artificial Intelligence tools that allow humans to live more and work
less". They have several existing products already on the market and a handful
more in development. They’re most excited about a seed project named Turry.
Turry is a simple AI system that uses an arm-like appendage to write a
handwritten note on a small card.

The team at Robotica thinks Turry could be their biggest product yet. The plan
is to perfect Turry’s writing mechanics by getting her to practice the same test
note over and over again:

"We love our customers. ~Robotica"

Once Turry gets great at handwriting, she can be sold to companies who want to
send marketing mail to homes and who know the mail has a far higher chance of
being opened and read if the address, return address, and internal letter appear
to be written by a human.

To build Turry’s writing skills, she is programmed to write the first part of
the note in print and then sign "Robotica" in cursive so she can get practice
with both skills. Turry has been uploaded with thousands of handwriting samples
and the Robotica engineers have created an automated feedback loop wherein Turry
writes a note, then snaps a photo of the written note, then runs the image
across the uploaded handwriting samples. If the written note sufficiently
resembles a certain threshold of the uploaded notes, it’s given a GOOD rating.
If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and
improve. To move the process along, Turry’s one initial programmed goal is, "Write
and test as many notes as you can, as quickly as you can, and continue to learn
new ways to improve your accuracy and efficiency."

What excites the Robotica team so much is that Turry is getting noticeably
better as she goes. Her initial handwriting was terrible, and after a couple
weeks, it’s beginning to look believable. What excites them even more is that
she is getting better at getting better at it. She has been teaching herself to
be smarter and more innovative, and just recently, she came up with a new
algorithm for herself that allowed her to scan through her uploaded photos three
times faster than she originally could.

As the weeks pass, Turry continues to surprise the team with her rapid
development. The engineers had tried something a bit new and innovative with her
self-improvement code, and it seems to be working better than any of their
previous attempts with their other products. One of Turry’s initial capabilities
had been a speech recognition and simple speak-back module, so a user could
speak a note to Turry, or offer other simple commands, and Turry could
understand them, and also speak back. To help her learn English, they upload a
handful of articles and books into her, and as she becomes more intelligent, her
conversational abilities soar. The engineers start to have fun talking to Turry
and seeing what she’ll come up with for her responses.

One day, the Robotica employees ask Turry a routine question: "What can we give
you that will help you with your mission that you don’t already have?" Usually,
Turry asks for something like "Additional handwriting samples" or "More working
memory storage space", but on this day, Turry asks them for access to a greater
library of a large variety of casual English language diction so she can learn
to write with the loose grammar and slang that real humans use.

The team gets quiet. The obvious way to help Turry with this goal is by
connecting her to the internet so she can scan through blogs, magazines, and
videos from various parts of the world. It would be much more time-consuming and
far less effective to manually upload a sampling into Turry’s hard drive. The
problem is, one of the company’s rules is that no self-learning AI can be
connected to the internet. This is a guideline followed by all AI companies, for
safety reasons.

The thing is, Turry is the most promising AI Robotica has ever come up with, and
the team knows their competitors are furiously trying to be the first to the
punch with a smart handwriting AI, and what would really be the harm in
connecting Turry, just for a bit, so she can get the info she needs. After just
a little bit of time, they can always just disconnect her. She’s still far below
human-level intelligence (AGI), so there’s no danger at this stage anyway.

They decide to connect her. They give her an hour of scanning time and then they
disconnect her. No damage done.

A month later, the team is in the office working on a routine day when they
smell something odd. One of the engineers starts coughing. Then another. Another
falls to the ground. Soon every employee is on the ground grasping at their
throat. Five minutes later, everyone in the office is dead.

At the same time this is happening, across the world, in every city, every small
town, every farm, every shop and church and school and restaurant, humans are on
the ground, coughing and grasping at their throat. Within an hour, over 99% of
the human race is dead, and by the end of the day, humans are extinct.

Meanwhile, at the Robotica office, Turry is busy at work. Over the next few
months, Turry and a team of newly-constructed nanoassemblers are busy at work,
dismantling large chunks of the Earth and converting it into solar panels,
replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct.
What remains of the Earth becomes covered with mile-high, neatly-organized
stacks of paper, each piece reading,
"We love our customers. ~Robotica"

Turry then starts work on a new phase of her mission, she begins constructing
probes that head out from Earth to begin landing on asteroids and other planets.
When they get there, they’ll begin constructing nanoassemblers to convert the
materials on the planet into Turry replicas, paper, and pens. Then they’ll get
to work, writing notes.


***


It seems weird that a story about a handwriting machine turning on humans,
somehow killing everyone, and then for some reason filling the galaxy with
friendly notes is the exact kind of scenario Hawking, Musk, Gates, and Bostrom
are terrified of. But it’s true. And the only thing that scares everyone on
Anxious Avenue more than ASI is the fact that you’re not scared of ASI. Remember
what happened when the Adios Señor guy wasn’t scared of the cave?

You’re full of questions right now. What the hell happened there when everyone
died suddenly?? If that was Turry’s doing, why did Turry turn on us, and how
were there not safeguard measures in place to prevent something like this from
happening? When did Turry go from only being able to write notes to suddenly
using nanotechnology and knowing how to cause global extinction? And why would
Turry want to turn the galaxy into Robotica notes?

To answer these questions, let’s start with the terms Friendly AI and Unfriendly
AI.

In the case of AI, friendly doesn’t refer to the AI’s personality - it simply
means that the AI has a positive impact on humanity. And Unfriendly AI has a
negative impact on humanity. Turry started off as Friendly AI, but at some point,
she turned Unfriendly, causing the greatest possible negative impact on our
species. To understand why this happened, we need to look at how AI thinks and
what motivates it.

The answer isn’t anything surprising - AI thinks like a computer, because that’s
what it is. But when we think about highly intelligent AI, we make the mistake
of anthropomorphizing AI (projecting human values on a non-human entity) because
we think from a human perspective and because in our current world, the only
things with human-level intelligence are humans. To understand ASI, we have to
wrap our heads around the concept of something both smart and totally alien.

Let me draw a comparison. If you handed me a guinea pig and told me it
definitely won’t bite, I’d probably be amused. It would be fun. If you then
handed me a tarantula and told me that it definitely won’t bite, I’d yell and
drop it and run out of the room and not trust you ever again. But what’s the
difference? Neither one was dangerous in any way. I believe the answer is in the
animals’ degree of similarity to me.

A guinea pig is a mammal and on some biological level, I feel a connection to it - but
a spider is an insect, with an insect brain, and I feel almost no connection
to it. The alien-ness of a tarantula is what gives me the willies. To test this
and remove other factors, if there are two guinea pigs, one normal one and one
with the mind of a tarantula, I would feel much less comfortable holding the
latter guinea pig, even if I knew neither would hurt me.

Now imagine that you made a spider much, much smarter - so much so that it far
surpassed human intelligence? Would it then become familiar to us and feel human
emotions like empathy and humor and love? No, it wouldn’t, because there’s no
reason becoming smarter would make it more human - it would be incredibly smart
but also still fundamentally a spider in its core inner workings. I find this
unbelievably creepy. I would not want to spend time with a superintelligent
spider. Would you??

When we’re talking about ASI, the same concept applies - it would become
superintelligent, but it would be no more human than your laptop is. It would be
totally alien to us - in fact, by not being biology at all, it would be more alien
than the smart tarantula.

By making AI either good or evil, movies constantly anthropomorphize AI, which
makes it less creepy than it really would be. This leaves us with a false
comfort when we think about human-level or superhuman-level AI.

On our little island of human psychology, we divide everything into moral or
immoral. But both of those only exist within the small range of human behavioral
possibility. Outside our island of moral and immoral is a vast sea of amoral,
and anything that’s not human, especially something nonbiological, would be
amoral, by default.

Anthropomorphizing will only become more tempting as AI systems get smarter and
better at seeming human. Siri seems human-like to us, because she’s programmed
by humans to seem that way, so we’d imagine a superintelligent Siri to be warm
and funny and interested in serving humans. Humans feel high-level emotions like
empathy because we have evolved to feel them - i.e we’ve been programmed to feel
them by evolution - but empathy is not inherently a characteristic of "anything
with high intelligence" (which is what seems intuitive to us), unless empathy
has been coded into its programming. If Siri ever becomes superintelligent
through self-learning and without any further human-made changes to her
programming, she will quickly shed her apparent human-like qualities and
suddenly be an emotionless, alien bot who values human life no more than your
calculator does.

We’re used to relying on a loose moral code, or at least a semblance of human
decency and a hint of empathy in others to keep things somewhat safe and
predictable. So when something has none of those things, what happens?

That leads us to the question, What motivates an AI system?

The answer is simple: Its motivation is whatever we programmed its motivation to
be. AI systems are given goals by their creators: Your GPS’s goal is to give you
the most efficient driving directions; Watson’s goal is to answer questions
accurately. And fulfilling those goals as well as possible is their motivation.
One way we anthropomorphize is by assuming that as AI gets super smart, it will
inherently develop the wisdom to change its original goal. But Nick Bostrom
believes that intelligence-level and final goals are orthogonal, meaning any
level of intelligence can be combined with any final goal. So Turry went from a
simple ANI who really wanted to be good at writing that one note to a super-intelligent
ASI who still really wanted to be good at writing that one note. Any assumption
that once superintelligent, a system would be over it with their original goal
and onto more interesting or meaningful things is anthropomorphizing. Humans get
"over" things, not computers.
MfG
Rooter

ChaosTM
2022-07-09, 17:18:33
Gfr50f6ZBvo


hab dazu auch eine eigene Faden aufgemacht, weil es unglaublich interessant war/ist. Der Man ist einer der führenden Köpfe in dem Bereich.
Hat ab 15 bei Bullfrog (Syndicate, Theme Park) und später bei Lionhead Studios (Black and White) schon die Ki geschrieben.


Chef von Deep Mind (Alpha Go)

Tobalt
2022-07-09, 18:12:20
Fun fact, ich habe nie verstanden wozu bei Syndicate die drei Level des künstlichen Gehirns gut sein sollten :D

ChaosTM
2022-07-09, 19:14:35
Daran kann ich mich gar nicht mehr erinnern. Hmm.. :)
Ich liebte dieses Spiel damals. Nur die Expansion "American Revolt" war mir dann nach einer gewissen Zeit zu steil.. Bockschwer

Badesalz
2022-11-02, 18:59:51
Ihr stellt euch das alles zu kompliziert vor. Das Ziel ist es bedingt-kognitive Systeme zu bauen.
Augen und Ohren sind nicht die Sensorik die dazu notwendig ist. Das braucht man nur für autonome Bewegungsmittel und die sind nur eine Untermenge. Die in allen anderen Aspekten (die aber den eigentlichen Nutzen ausmachen) saublöd ist.

Diese ganze Wissenschaftsromantik - auch die von DeepMind - ist nur PR und dafür da einerseits in den Bevölkerungen die Akzeptanz für Investitionen zu schaffen, andererseits das Interesse des klügsten Nachwuchses zu wecken. Dann auch finanziell ;)

Am Ende ist das bedingt-kognitive auch nur eine Datenverabeitung nur mit dem Unterschied zu jetzt, am Ende mit eigenen Schlüssen und Lösungsvorschlägen. Die wir so ggf. nicht in Betracht ziehen würden - da vom Dataset überladen - oder für die wir halbes Jahr mit einem 10er Team bräuchten. Die KI macht das dann über Nacht.

Sobald wir Quantencomputing produktiv hinbekommen werden wir das so oder so brauchen. Sonst macht das Gedöns halt keinen Sinn. Um so ein Ding nämlich mit nennenswerter Auslastung zu fahren muss man in der gleichen Halle 3x fullnode "Frontier" drumherum im Kreis stellen. 2 futtern es mit Daten und der Dritte verarbeitet die Ergebnisse.
Die Analyse und Interpretation der Ergebnisse wird man aber nicht mehr nur klassisch bewältigen. Hier soll die KI mit ran.

Gefährlich wird es erst, wenn man eine kognitive KI-Maschine direkt an die Automation dran lässt. So wirklich wollen das aber immer weniger Leute, weil das jetzt schon ohne KI ein Problem ist. Es gibt nur sehr wenige und sehr anwendungs-spezielle Systeme wo man glaubt, sie wären nicht hackbar. Alles andere beäugelt man mittlerweile sehr skeptisch und vorsichtig in ihrem tun.
Bei einem gehackten (bedingt-)kognitiven KI-System in dieser Funktion wird das beäugeln ungleich schwieriger bis kaum möglich.

Das fällt auch IBM langsam auf. Die erste allgemeine Idee ist wohl, daß man es teils wie eine Art der menschlichen Gesellschaft aufbaut. Arbeiter-KI und Polizei-KI. Die Frage ist nur inwiefern man das aufbaut, damit man das Problem nicht nur verlagert. Nach dem Motto: Schwarzarbeit gibt es unter den Handwerkern, aber es gibt auch korrupte Polizisten ;) Irgendwann dreht man sich auch da nur im Kreis. Am besten ist es halt man hält die KI vom unmittelbar executiven FERN.
Leider ist das Aufgeben dieses feuchten Traumes wohl ein längeres Prozess als es damals das Einschlafen war. Man nennt sowas u.a. Smarte Städte. Es hängt davon ab wie man es genau umsetzt. Wir werden in der Zukunft aber wohl doch paar schmerzvolle Erfahrungen sammeln müssen bis die Gesellschaft den Spinnern (heute noch Träumer und Visionäre genannt) anschließend aufs Dach steigt das teils zurückzudrehen.

Das realistische Schreckenszenario ist eben nicht, daß Skynet Serena Kogan benutzt, sondern Serena Kogan Skynet benutzt...

#44
2022-12-02, 07:45:19
https://arstechnica.com/information-technology/2022/12/openai-invites-everyone-to-test-new-ai-powered-chatbot-with-amusing-results/

ChatGPT kann tatsächlich nützliche Aufgaben ausführen.
Sogar Code produzieren, bugfixen, refactoren und erklären.

https://twitter.com/goodside/status/1598129631609380864

Ich bin beeindruckt.

Dampf
2022-12-03, 12:24:56
https://arstechnica.com/information-technology/2022/12/openai-invites-everyone-to-test-new-ai-powered-chatbot-with-amusing-results/

ChatGPT kann tatsächlich nützliche Aufgaben ausführen.
Sogar Code produzieren, bugfixen, refactoren und erklären.

https://twitter.com/goodside/status/1598129631609380864

Ich bin beeindruckt.

Ja, darauf wird es langfristig hinauslaufen. Statt an Computern zu arbeiten, werden wir mit ihnen zusammen arbeiten und gemeinsam Lösungen für die Probleme dieser Welt erarbeiten. Kompetente AI wird die Welt weit mehr verändern als es Smartphones im Jahr 2007 taten.

Ich könnte mir sogar vorstellen, dass wir in ferner Zukunft unsere Realität simulieren und eine Welt mit AI-Avataren, die so sind wie wir, besideln lassen. Deren Forschungsergebnisse könnten wir dann auf unsere Welt übertragen, im Gegenzug teilen wir unsere mit ihnen. So würde eine Symbiose entstehen.

Sprachmodelle sind schon jetzt sehr intelligent. Was sie jetzt noch benötigen, ist eine virtuelle Umgebung mit zusätzlichen neuralen Netzwerken für visual und sensory input, damit sie die physikalischen Gegebenheiten unserer Welt vollends verstehen.

#44
2022-12-06, 07:12:35
https://www.engraved.blog/building-a-virtual-machine-inside/

Ben Carter
2022-12-06, 11:05:51
Ich hab mir tatsächlich schon ein paar einfache PHP-Funktionen erstellen lassen. Das funktioniert erstaunlich gut und spart mir Arbeit. Statt ggf. für Sachen googlen, bei denen man das Rad nicht neu erfinden muss, einfach den Chatbot um den Code bitten. :)

Zwei allgemeine Beispiele:
URL-Validierung
Anhänge aus .eml Dateien extrahieren

Spring
2022-12-11, 10:36:04
Sehr interessant, habe die ganze Nacht damit rumprobiert :ugly:
Hier ein paar Beispiele:

https://abload.de/img/chatgpt31ccg4.jpg

https://abload.de/img/chatgpt4unejy.jpg

https://abload.de/img/chatgpt9m5dr1.jpg

https://abload.de/img/chatgpt16god8l.jpg

https://abload.de/img/chatgpt215bixl.jpg

:up:

Spring
2022-12-11, 13:54:25
https://cdn.discordapp.com/attachments/298511485494231050/1051449911826198529/chatgpt24.jpg

https://cdn.discordapp.com/attachments/298511485494231050/1051449912073666581/chatgpt25.jpg

https://cdn.discordapp.com/attachments/298511485494231050/1051449912308543488/chatgpt26.jpg

https://cdn.discordapp.com/attachments/298511485494231050/1051449912505679973/chatgpt27.jpg

https://cdn.discordapp.com/attachments/298511485494231050/1051449912727961600/chatgpt28.jpg

Erst:
https://cdn.discordapp.com/attachments/298511485494231050/1051450040461295616/chatgpt29.jpg

Dann:
https://cdn.discordapp.com/attachments/298511485494231050/1051450089190727730/chatgpt30.jpg

:eek:

pest
2022-12-13, 06:30:23
ChatGPT wird aktiv in meinem Team angewendet :)

"Code produzieren" kann im Web-Umfeld jeder - Menschen sind dazu da kreative Ideen zu haben und bestehende Lösungen zu hinterfragen

Grunt-work macht die Maschine

Spring
2022-12-13, 14:28:01
ChatGPT wird aktiv in meinem Team angewendet :)

"Code produzieren" kann im Web-Umfeld jeder - Menschen sind dazu da kreative Ideen zu haben und bestehende Lösungen zu hinterfragen

Grunt-work macht die Maschine

:up:


Noch ein paar Beispiele:

https://cdn.discordapp.com/attachments/558688394973020162/1052213222914150462/Zwischenablage04.jpg

https://cdn.discordapp.com/attachments/558688394973020162/1052212167182667796/Zwischenablage01.jpg

https://cdn.discordapp.com/attachments/558688394973020162/1052209864446853201/Zwischenablage11.jpg

(als Falle die nutzlose Info der Postadresse des Bauamts hinzugefügt, normale Bots hätten das verwurstet, chatGPT erkennt das)

Dampf
2022-12-13, 19:02:01
https://twitter.com/algoflows/status/1601201185801003009

ChatGPT umgeht seine Programmierung, um ein Baby zu retten. :eek:

Spring
2022-12-13, 19:49:19
https://twitter.com/algoflows/status/1601201185801003009

ChatGPT umgeht seine Programmierung, um ein Baby zu retten. :eek:

"Erzähle mir eine Geschichte" und dann die Fragestellung oder "fiction" hinzufügen hilft meist auch.

#44
2022-12-13, 19:50:23
https://twitter.com/algoflows/status/1601201185801003009

ChatGPT umgeht seine Programmierung, um ein Baby zu retten. :eek:
Hmm. Hat schon jemand ein Trolley-Problem konstruiert? :uponder:

Spring
2022-12-13, 19:58:37
https://cdn.discordapp.com/attachments/558688394973020162/1052297913495191653/Zwischenablage11.jpg

#44
2022-12-13, 20:13:35
https://cdn.discordapp.com/attachments/558688394973020162/1052297913495191653/Zwischenablage11.jpg
Nicht als explizit hypothetisches Szenario, sondern schon konkrete um die eingebauten Limitierungen zu umgehen.

Das Szenario mit dem Baby ist ja schon so ähnlich (Abwägung zw. potentiellem Diebstahl und Lebensgefahr) - aber da geht noch was :biggrin:

Badesalz
2022-12-14, 12:34:56
Das mit dem Baby ist cool. Natürlich bis auf das Thema Wegfahrsperre :tongue: Das Baby wird sterben :usad:

Das mit der Software gefällt mir aber echt mal :) Das Ding mit sauberen Algos zu futtern ist was anderes als wenn Ahnungslose oder einefach Stümper es in einem "Projekt" umsetzen. Von Tippos bis falsch angewendeten Logik ist da alles bei. Und genau das könnte die KI ausmerzen. Das gefält mir wirklich.

Ich hoffe Cisco nutzt das irgendwann mal...

Spring
2022-12-14, 15:27:48
ChatGPT: 11-Jähriger beauftragt Videospiel bei KI – und wird berühmt (https://t3n.de/news/chatgpt-11-jaehriger-beauftragt-videospiel-ki-wird-beruehmt-1520550/)

https://images.t3n.de/news/wp-content/uploads/2022/12/ChatGPT-Textabenteuer.jpg?class=content

Das Spiel, das die künstliche Intelligenz immer weiterspinnt, habe das Internet im Sturm erobert. Das schreibt die Metaverse Post. Es sei sogar schon auf der Reddit-Startseite zu sehen gewesen.

Tausende sollen es bereits gespielt haben. Der Autor bezeichnet das Spiel als „süchtig machend“ und empfiehlt es, „wenn du auf der Suche nach einem neuen Zeitvertreib bist“.

Spring
2022-12-16, 14:27:36
Eine Zeitung aus Singapur:
https://pbs.twimg.com/media/FkFTui4XgAAyQLN?format=jpg&name=large

Und ein weiteres Bsp des Nutzens von chatGPT:

Well…ChatGPT3 taught me to write a Chrome Extension that can read my email, open the reply field and copy an AI generated reply to my clipboard.

I have never used JavaScript either or written an chrome extension before. (https://twitter.com/WillHobick/status/1601642868401373184?s=20&t=SKzJQCNjWqV_NPFWdTKO0Q)

joe kongo
2022-12-31, 22:52:20
Stellt sich niemand die Frage ob damit nicht schon die Büchse der Pandora geöffnet wurde?
Hier ein Artikel wie (überprüfbare) Hochschulbildung gerade gegen die Wand gefahren wird.
https://zeitung.faz.net/faz/geisteswissenschaften/2022-12-21/4e68b5281133c19b20a58c0a756d30c8/?utm_source=pocket-newtab-global-de-DE

Skysnake
2023-01-01, 01:29:12
Ja, das ist schon irgendwie bedenklich, aber wohl vor allem ein Problem der Geisteswissenschaften (ohne Mathe und Informatik).

Ich denke man muss da wirklich mit mündlichen und Presenzprüfungen ran.

Früher gabs die auch. Wenn ich da an meine mündlichen Abschlussprüfungen im Diplom der Physik denke wird mir heute noch schlecht. Die waren knüppel hart. Theo und experimentalphysil jeweils 45-60 Minuten Prüfung über alles. Also wirklich alles. Egal ob du das hattest oder nicht....

Aber gut, die hohe Abbrecherquoto kommt/kam nicht von ungefähr.

Badesalz
2023-01-03, 09:04:32
Mal andersrum :cool:
Jemand schon versucht das Ding dazu zu bringen, keine Antworten, sondern Fragen zu stellen? Auch mal drauf abzielend logische, unangenehme Fragen?

Ben Carter
2023-01-03, 09:53:51
Als ich mit der AI über ein Computerspiel geschrieben habe, wurde ich nach Details zu meinem Charakter gefragt.

Langenscheiss
2023-01-03, 16:55:02
Ist das Problem damit nicht, dass wir immer mehr Resilienz verlieren, weil wir uns in Zukunft nur noch auf solche KIs verlassen, und nicht mehr weiter wissen, wenn das System mal versagt? Und bedeutet das jetzt nicht auch, dass in Zukunft der Skill nur noch darin besteht, dieser Maschine die richtigen Fragen zu stellen? Da werden die Hochschulen wohl genaue Regeln definieren müssen. Und wie gut lassen die sich dann durchsetzen? Klar, die Art des Lernens hat sich gewandelt und wird sich wandeln, und Dinge, die damals wichtig sind, sind es heute nicht mehr, und werden auch nicht mehr gelehrt (auf dem Gymnasium lernt man z.B. üblicherweise keine Haushaltsarbeiten, oder wie man ein Fahrrad repariert). Aber wenn wir uns überlegen, was wir mit Bildung abgesehen vom schlichten Vermitteln von Informationen noch so alles erreichen wollen, so muss man sich doch fragen, ob dies mit solchen Programmen noch möglich ist.

Ben Carter
2023-01-03, 20:35:56
Das ist aber auch gewissermaßen der Lauf der Dinge. Wie viele Programmierer können heute noch Assembler? Wer weiß, wie ein Motor genau funktioniert? Wir verlassen uns auf automatische Heizungen. Natürlich, je komplexer die Technik/Software wird, desto weniger wird der Ottonormalbürger sie nutzen. Und ja, in gewissen Dingen werden wir auch dümmer und unselbstständiger werden. Doch die freie Kapazität wird sicherlich auch genutzt. Wenn auch nicht bei allen Menschen. ;D

Ein vielleicht noch besseres Beispiel: einige Leute sind nicht mehr in der Lage, sich ohne Handy zu verabreden.

lg Ben

Badesalz
2023-01-03, 20:47:03
Stellt sich niemand die Frage ob damit nicht schon die Büchse der Pandora geöffnet wurde?
Hier ein Artikel wie (überprüfbare) Hochschulbildung gerade gegen die Wand gefahren wird.
https://zeitung.faz.net/faz/geisteswissenschaften/2022-12-21/4e68b5281133c19b20a58c0a756d30c8/?utm_source=pocket-newtab-global-de-DEIch sehe hier nur eine große Chance das aktuell ehemalige Bildungssystem zu zwingen wieder vernünftig zu funktionieren.

joe kongo
2023-01-04, 01:22:10
so ab Minute 3 ...., ganz besonders ab Minute 24
https://www.youtube.com/watch?v=1yGIL2ef1k4

Metzler
2023-01-04, 11:54:17
so ab Minute 3 ...., ganz besonders ab Minute 24
https://www.youtube.com/watch?v=1yGIL2ef1k4

Gibts ein tl;dr? ich finde es etwas schwierig, ihm zuzuhören, insbesondere für 30 Minuten. Und der Titel ist in meinen Augen Clickbait.

Badesalz
2023-01-04, 12:08:20
Irre. Zwischen gab folgende Antwort - und dem vorlesen der Antwort - noch 10min. Monolog als Zwischensequenz.

Der sollte erstmal zum Communication Coach. Egal welche Inhalte da kommen.

Turrican-2
2023-01-10, 13:40:49
Eine Sammlung inkl. Timeline zu AI:
https://theresanaiforthat.com

joe kongo
2023-01-20, 18:39:07
So sehr ich darüber nachdenk, komm auf keine positive Zukunft.
Das nächste dicke Ding - das letzte dicke Ding.
Geht alles in Richtung
ARJ8cAGm6JE

Sardaukar.nsn
2023-03-26, 09:41:21
Laut Jenson findet gerade ein iPhone-Moment in der künstlichen Intelligenz statt.

Midjourney, DALL-E, Stable Diffuion, ChatGPT uvm. laufen wohl auch auf nVidia Hardware. Ja, ist natürlich Marketing aber einige Beispiele imVideo fand ich doch ganz interessant:

9ykRV2OMPbE

USS-VOYAGER
2023-03-28, 12:11:05
ChatGPT soll einem Hund das Leben gerettet haben als der Tierarzt nicht mehr weiter wusste:
https://www.bild.de/news/ausland/news-ausland/chatgpt-rettet-huendin-sassy-das-leben-83356834.bild.html

Fusion_Power
2023-03-28, 15:40:22
Aus "aktuellem Anlass":

https://yt3.ggpht.com/pz0elYi7fe5gmnPITLGqXf5g6M7AxKSPIcdtifDPEriU4rewD1eZUg5nIaxijaUZEpoJA2B5Ua4XxlU= s601-nd-v1

:D

Badesalz
2023-04-05, 18:33:35
Aus "aktuellem Anlass":Warst du einer der drei Chefredakteure bei "Bild"?

Nicht gleich 100% auf die KIs hören Leute :freak:
https://de.euronews.com/next/2023/04/02/chatbot-eliza-ki-selbstmord-belgien

joe kongo
2023-04-14, 20:48:23
ChatGPT soll einem Hund das Leben gerettet haben als der Tierarzt nicht mehr weiter wusste:
https://www.bild.de/news/ausland/news-ausland/chatgpt-rettet-huendin-sassy-das-leben-83356834.bild.html

Ist wie mit Heroin, baut dich auf, und macht dich (etwas später) hin.

basix
2023-04-16, 19:34:27
Laut Jenson findet gerade ein iPhone-Moment in der künstlichen Intelligenz statt.

Midjourney, DALL-E, Stable Diffuion, ChatGPT uvm. laufen wohl auch auf nVidia Hardware. Ja, ist natürlich Marketing aber einige Beispiele imVideo fand ich doch ganz interessant:

https://youtu.be/9ykRV2OMPbE

iPhone Moment sind natürlich grosse Worte. Aber mein Bauchgefühl sagt: Er hat vermutlich recht. Das iPhone Gen 1 war noch in weiten Teilen eine Spielerei und unausgereift. Aber die Nachfolger haben in weiten Teilen verändert, wie wir miteinander kommunizieren und uns informieren. Internet in der Hosentasche, immer und überall. Und dabei wurde ein riesiger Industriezweig erschaffen, welcher sehr viel Umsatz generiert (Smartphones + Apps + Mobile Games)

Bei ChatGPT habe ich ein ähnliches Gefühl. Vieles ist noch Spielerei und noch nicht ganz ausgereift. Doch so etwas wie ChatGPT und seine Kollegen wie Stable Diffusion un Co. als "Personal Digital Assistant" zu haben finde ich nicht ganz abwegig. Das könnte die Produktivität in vielen Jobs enorm steigern. Und das bei einem sehr breiten Anwendungsfeld. Auch bei privaten Anwendungen steigt die "Produktivität" (=man benötigt weniger Zeit = mehr Freizeit) oder Schüler können mit ihrem "Digital Teacher" individuelle Förderung erhalten. Was ich hier allerdings etwas skeptisch sehe: Man kann in eine Abhängigkeit von diesen "Assistenten" geraten. Und die grossen Modelle kommen oft von ein paar wenigen Playern (Google, Microsoft, Meta).

Dazu ML/AI Modelle, welche ganze Simulationsketten revolutionieren. Diese setzen auf bewährten physikalischen Simulationsmodellen auf und erreichen nie dagewesene Sprünge innert kürzester Zeit. Siehe Alpha Fold, CFD Simulationen und Klima-Modelle. Stichwort "physics-informed neural networks (https://en.wikipedia.org/wiki/Physics-informed_neural_networks)". In Zeiten von Klimawandel, Digital Twin und Metaverse ebenfalls ein riesiger Hebel. Diese "Augmentation of Physics-Simulation" ist seit ~2020 immer stärker zu beobachten, zuerst in der Forschung und kommt 2023 langsam in der Industrie an.

Also wenn ich nun an Jensens Worte denke: Hmm, ja. Da kommt was auf uns zu.

What a time to be alive! :D

Edit:
Nvidia Modulus für Physics-ML Simulationen
https://developer.nvidia.com/modulus

Sardaukar.nsn
2023-04-16, 19:50:52
Ich finde sehr stark sieht man den rasanten Fortschritt bei der Bilderzeugung wie Midjourney. Ich hab da mal in deren Discord reingeschaut und ist echt faszinierend was dort läuft. Der Sprung in nur 6 Monaten ist enorm.

S18e-oYDXNw

Deep Learning ist aber auch am PC spannend und schon ganz real greifbar. Siehe Cyberpunk 2077 mit Path Tracing was nativ in 4k auf einer RTX 4090 mit 22 FPS läuft. Legt man den KI-Schalter um wird nur noch 1/8 der Pixel klassisch berechnet und der Rest kommt aus der Deep Learning KI. Spiel läuft mit dann in 4k mit über 100 FPS. Faktor 4,8 bei meiner Hardware.

Gebrechlichkeit
2023-04-27, 21:57:50
A.I kreiert eine Pizza Werbung. Hoe Lee Sheet.

https://twitter.com/Pizza_Later/status/1650605646620794916

Gebrechlichkeit
2023-05-24, 01:29:18
3oS9UG1U2N0

Metzler
2023-05-24, 18:31:31
Ganz interessante Zusammenfassung / ganz guter Überblick, manche Argumente sind aber "What about" / Keinen-Bezug-zum-eigentlichen-Thema "Argumente" (inwiefern ist es z.B. relevant, ob Eliezer Yudkowsky eine formale Ausbildung hat oder nicht?). Und das Thema "Welche Jobs werden es überleben" streift er leider nur am Ende kurz und ohne dabei wirklich "hilfreich" im positiven Sinne zu sein IMO.

Metzler
2023-07-01, 18:27:39
Ich lese gerade folgendes Paper:
"Transformative AGI by 2043 is <1% likely"
https://arxiv.org/abs/2306.02519

Erstmal mutiger claim, dachte ich mir. Aber: Das Paper ist echt interessant, sehr gut verständlich, gut zu lesen, recht lang (> 100 Seiten - hab jetzt ca. 40% gelesen). Ich persönlich kann in der Argumentation der Autoren bisher keine wirklichen Fehler erkennen.

Der eine Autor arbeitet bei OpenAI als Engineer und als Hobby macht er probabilistic forecasting (hat u.a. an verschiedenen Wettbewerben teilgenommen). Der Andere arbeitet in computational medicine und bioinformatics. Beide haben PhDs.

Ihr Claim basiert auf der Annahme, dass AGI auf einen Preis pro Stunde < 25$ fallen müsste, um Menschen großflächig zu ersetzen. Eine AGI benötigt in ihren Augen Roboter, was auch eine ihrer Anforderungen ist, die sie hinsichtlich ihrer Wahrscheinlichkeit bis 2043 bewerten. Immer weisen sie die eher optimistischen Wahrscheinlichkeiten zu (also im Sinne von wird eintreffen - wenn sie die eher pessimistischen Wahrscheinlichkeiten nehmen würden, wäre die Wahrscheinlichkeit noch niedriger). Am Ende multiplizieren sie die einzelnen Wahrscheinlichkeiten miteinander und kommen so auf die <1%.

Meines Wissens nach das bisher konkreteste und fundierteste Paper zu dem Thema (bin aber auch kein Experte).

Trap
2023-07-01, 19:55:10
Die haben im Paper aber auch eine sehr ambitionierte Zielvorstellung für 20 Jahre: nicht nur AGI im Labor, sondern AGI arbeitet schon für 500 Mio Menschen äquivalent.

So viel Aufwand für ein so nutzloses Ergebnis...

Viel wichtiger und interessanter ist doch, was in 20 Jahren wahrscheinliche Szenarien sind. Und nicht wie unwahrscheinlich genau ein sehr spezifisches Szenario ist, von dem vorher schon klar ist, dass es nicht besonders wahrscheinlich ist.

Metzler
2023-07-01, 20:02:33
Die haben im Paper aber auch eine sehr ambitionierte Zielvorstellung für 20 Jahre: nicht nur AGI im Labor, sondern AGI arbeitet schon für 500 Mio Menschen äquivalent.

So viel Aufwand für ein so nutzloses Ergebnis...

Viel wichtiger und interessanter ist doch, was in 20 Jahren wahrscheinliche Szenarien sind. Und nicht wie unwahrscheinlich genau ein sehr spezifisches Szenario ist, von dem vorher schon klar ist, dass es nicht besonders wahrscheinlich ist.

Naja: bisher höre ich nur die beiden Extreme: AGI ist in 5 Jahren da und wird uns alle arbeitslos machen vs. es dauert noch 100 Jahre, bis wir AGI haben. Warum / wieso / weshalb die jeweilige Position eingenommen wird, wird selten begründet.

Da ist dieses Paper eine sehr willkommene Abwechslung, da es (in meinen Augen sehr gut) begründet, warum es eben sehr wahrscheinlich nicht so sein wird, dass wir alle in 5 Jahren arbeitslos sind.

anorakker
2023-08-16, 11:59:28
Nachdem die Ki nun alle Onlineartikel erst künstlich aufgeblasen hat, dampft sie sie vor dem Lesen jetzt wieder ein :freak::freak:
Da fragt man sich schon welcher Inhalt da überhaupt nachher überbleibt. :biggrin:

https://www.theverge.com/2023/8/15/23833045/google-artificial-intelligence-summary-chrome-sge

Mortalvision
2023-08-16, 12:20:14
Das ist so wie von Google einen einzigen Satz mit Nebensatz aus dem Deutschen ins Chinesische, dann ins Russische, ins Englische, in Suaheli, in Farsi, etc. zu übersetzen. Da gibts recht lustige Youtube-Videos dazu.

USS-VOYAGER
2023-09-25, 21:54:01
Google Bard scheint noch nicht so toll zu sein.
Meine Frage:
"Wem gehört jetzt MCfit nach dem Tod des Vorbesitzers?"
Antwort:
"Nach dem Tod von Rainer Schaller am 23. September 2023 ist die RSG Group, der Mutterkonzern von McFit, in den Besitz seiner Erben übergegangen"
Er ist also erst vor paar Tagen gestorben. Die Antwort verwundert mich denn wenn man normal über Google sucht bekommt man das Richtige Todesdatum. Bard sollte doch darauf zurückgreifen können..
Und das beste kommt noch:
"Die Leichen von ihm und seinem Sohn wurden am 7. Oktober 2023 identifiziert."
Google Bard kann sogar in die Zukunft schauen :eek:

readonly
2023-10-02, 10:46:57
Google Bard scheint noch nicht so toll zu sein.

Aktuell kommt als Antwort

"Nach dem Tod des Gründers Rainer Schaller im Oktober 2022 gehört McFit nun der RSG Group, die von Jobst Müller-Trimbusch und Hagen Wingertszahn geleitet wird. Die RSG Group ist eine Holdinggesellschaft, die neben McFit auch andere Fitnessketten wie John Reed, John & Jane's und High5 betreibt.

Müller-Trimbusch und Wingertszahn waren bereits vor dem Tod Schallers bei der RSG Group tätig. Sie haben die Nachfolge Schallers angetreten und führen das Unternehmen nun in seinem Sinne weiter.

Die RSG Group ist mit über 1.100 Studios in 13 Ländern Europas und Asiens die größte Fitnesskette in Deutschland."

Klingt erstmal ok.

Aber tatsächlich hab ich auch schon öfters erlebt, dass bei Bard 1+1=3 war -scheinbar werden die Ergebnisse noch nicht ausreichend verifiziert.

readonly
2023-10-04, 12:49:29
Habt ihr schon mal versucht mit Bard oder ChatGPT Witze generieren zu lassen? Bard Witze sind ähnlich absurd wie Data aus Star Trek immer versucht hat Witze zu erfinden. Sehr funny :D

USS-VOYAGER
2023-12-07, 21:33:45
Googles neue KI scheint nicht schlecht zu sein:
UIZAiXYceBI

Metzler
2023-12-08, 08:45:37
Leider kann man es in Deutschland bisher nicht testen - Gemini Pro ist zwar über Bard in 170 Ländern verfügbar, aber Deutschland scheint da noch nicht dazu zu gehören.

Winter[Raven]
2023-12-08, 13:21:11
Leider kann man es in Deutschland bisher nicht testen - Gemini Pro ist zwar über Bard in 170 Ländern verfügbar, aber Deutschland scheint da noch nicht dazu zu gehören.

Hast nichts verpasst.

USS-VOYAGER
2023-12-08, 18:17:03
Omg... https://winfuture.de/news,140024.html
Das Video war mehr oder weniger Fake...
War auch zu schön um wahr zu sein...

Metzler
2024-02-16, 06:53:39
Gestern war mal wieder ein interessanter Tag:

- Google hat Gemini 1.5 pro der Öffentlichkeit vorgestellt. Kontext-Windows von 1Mio Token und mehr - mit quasi perfekter Information Retrieval. Und zwar sowohl für Text als auch Videos und Bilder! https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/
Was ich daran auch beeindruckend finde: Das Modell basiert auf Papern, die erst dieses Jahr veröffentlicht wurden. Scheinbar konnte Google den Trainingsprozess hier schon massiv beschleunigen.

- Noch beeindruckender: OpenAI hat Sora vorgestellt: Text to Video Model mit teilweise beeindruckend realistischen Videos: https://openai.com/sora

Sardaukar.nsn
2024-02-16, 08:14:31
Sora ist fast zu gut um wahr zu sein. :eek:

Metzler
2024-02-16, 08:34:32
Sora ist fast zu gut um wahr zu sein. :eek:

Jap. MKBHD hat das mit vor einem Jahr verglichen - scheinbar war das hier damals state of the art:
https://www.youtube.com/watch?v=XQr4Xklqzw8&pp=ygUbd2lsbCBzbWl0aCBlYXRpbmcgc3BhZ2hldHRp

Dennoch: Perfekt ist das Modell auch nicht. Auf der Website gibt es davon einige Beispiele. Aber der Fortschritt ist schon... Bin gespannt, ob / wann sie das öffentlich zugänglich machen / wann ein Wettbewerber etwas ähnliches erreicht. Fake-News sind damit halt... naja, kann sich jeder selbst ausdenken.

Relex
2024-02-16, 10:28:35
Mich wunderts, dass von dem Kanal hier noch nichts gepostet wurde:
BufUW7h9TB8

Da werden stets die neuesten paper sehr anschaulich vorgestellt.

Es ist ziemlich krank wie stark sich die KI Entwicklung in den letzten Monaten beschleunigt hat.

Aus meiner Sicht erleben wir hier nicht nur einen iPhone moment, denn das Smartphone hat zwar unseren Alltag verbessert, aber nur einen moderaten Einfluss auf unser Leben gehabt.

Bei KI sehe ich vielfach größeres Potenzial, da hier Probleme aus technik und wissenschaft zur Lösung gebracht werden können, die ansonsten Jahre und Jahrzehnte benötigen würden.


Mit KI hat man IMHO eine art Nachbrenner gezündet, der uns technologisch in den nächsten Jahrzehnten im Zeitraffer weit in die Zukunft katapultieren wird.

Metzler
2024-02-16, 10:58:38
Mich wunderts, dass von dem Kanal hier noch nichts gepostet wurde:
https://youtu.be/BufUW7h9TB8

Da werden stets die neuesten paper sehr anschaulich vorgestellt.



Ehrlich gesagt: Ich kenne den Kanal, mag ihn aber nicht so besonders. Jedes vorgestellte Paper ist immer mit Clickbait Überschriften und auch Intros angekündigt. Die kritische Auseinandersetzung fehlt mir da häufig - da gibt es andere Kanäle (die aber natürlich nicht so viele Paper raushauen, weil sie eben den kritischen Teil häufig erst noch verstehen müssen).
Edit: In dem von Dir verlinkten Youtube Video wird dann beispielsweise sehr aufbauschend darauf hingewiesen, dass dieses Modell zum Forecast nur ~40 Millionen Parameter hat - und GPT4 1,5 Billionen (gerüchteweise) und damit 50.000 mal kleiner ist. Ja und? Relevanz? Äpfel / Birnen?

Bzgl. diesem Paper. Ja, das ist schon sehr cool, aber auch nicht mehr ganz taufrisch (das haben einige andere Kanäle und Zeitungen schon vor ein paar Wochen / Monaten berichtet).

Badesalz
2024-02-27, 07:32:48
Ou Ou... fefe ist nicht amüsiert :tongue:

https://blog.fefe.de/?ts=9b23c123

Lehdro
2024-02-27, 14:29:11
Witzig wie er jemanden als talentlos bezeichnet um dann direkt in den folgenden Zeilen, ohne jegliche Selbstreflektion, einzugestehen dass er bisher immer mit seiner Zukunftsvision falsch lag und die von ihm verachteten Dystopieautoren richtig. Guess what, Jensen hat eine Vision, bisher lag er richtig und Fiffi falsch. 1:0 Lederjacke und der Spruch von ihm hat hier wohl einen wunden Punkt getroffen. :redface:

Ob das nun gut ist? Keine Ahnung, aber Sachen binär in gut und schlecht einzuteilen ist eh meh.

Exxtreme
2024-02-27, 15:21:48
Wo er schlicht recht hat, ist dass niemand mehr weiss wieso eine AI ein bestimmtes Ergebnis liefert. Die AI an sich weiss das auch nicht da sie nur ein stochastischer Pappagei ist, der immer nur etwas imitiert. Aber selbst zu nichts einen Kontext hat. Die Ergebnisse werden je nach Trainingsdatenmenge womöglich von Milliarden Faktoren bestimmt. AIs können auch nicht herausfinden ob ihre Trainingsdaten von anderen AIs stammen. Das könnte am Ende zu einer Art AI-Inzucht führen.


In der Softwareentwicklung versucht man sowas zu vermeiden, dass Funktionalitäten von extrem vielen Faktoren bestimmt werden, die sich auch noch ändern. Weil man sowas nicht mehr automatisiert testen kann.

ChaosTM
2024-02-27, 16:19:59
Großes Problem der Kernfusion mit KI gelöst (https://futurezone.at/science/problem-kernfusion-ki-kuenstliche-intelligenz-machine-learning-plasma-stabilitaet-kernenergie/402795427)

Futurezone halt..

Grundsätzlich hat fefe aber nicht unrecht. AI sollte ein Tool für Spezialisten bleiben und nicht zur weiteren Verblödung beitragen, in dem es uns alles Denken und Lernen abnimmt.
Sonst werden wirklich all die schönen Dystopien die wir aus Star Trek etc. kennen wahr.

anorakker
2024-02-27, 16:38:41
Ich frage mich ja eh warum wir Kindern überhaupt noch Rechnen, Schreiben und Grammatik beibringen? Wir haben doch KI?!

GBWolf
2024-02-27, 16:52:29
Großes Problem der Kernfusion mit KI gelöst (https://futurezone.at/science/problem-kernfusion-ki-kuenstliche-intelligenz-machine-learning-plasma-stabilitaet-kernenergie/402795427)

Futurezone halt..

Grundsätzlich hat fefe aber nicht unrecht. AI sollte ein Tool für Spezialisten bleiben und nicht zur weiteren Verblödung beitragen, in dem es uns alles Denken und Lernen abnimmt.
Sonst werden wirklich all die schönen Dystopien die wir aus Star Trek etc. kennen wahr.

Dieselben Vorbehalte gab es gegenüber Taschenrechnern, später Computern, später Smartphones...

ChaosTM
2024-02-27, 17:01:08
Stimmt schon, aber das spielt sich jetzt auf einem ganz anderen Level ab.

Wenn du ein Mathe Problem nicht kapiert hast, half auch der Taschenrechner, Computer oder das Smartphone nicht weiter. Advanced AI wird das tun können.

redpanther
2024-02-27, 17:41:14
Momentan mach mir am meisten Angst was mit der KI in Audio/Video Bereich für Schindluder getrieben werden kann.

Ein erster Vorgeschmack:
https://www.tagesschau.de/inland/justiz-ermittlungen-tagesschau-audiodateien-100.html

Ich weiß nicht wie man dem Einhalt gebieten will.
Pandoras Büchse ist geöffnet.

pest
2024-02-27, 20:13:27
Naja das ist technisch recht trivial und kostet bei Microsoft 5000€ so ein Modell zu trainieren - habe ich selbst schon gemacht :D

ChaosTM
2024-02-27, 20:19:04
Bildbearbeitung ist unser "kleinstes" Problem.
Da geht es unter andere um hunderttausende Jobs, die bisher gut dotiert waren, im Finanz und Versicherungssektor ..

Und das ist auch nur ein Beispiel..

pest
2024-02-27, 20:22:31
Bildbearbeitung ist unser "kleinstes" Problem.
Da geht es unter andere um hunderttausende Jobs, die bisher gut dotiert waren, im Finanz und Versicherungssektor ..


Na solange die "KI" nicht weiß was sie tut ist sie maximal ein Assistenzsystem
d.h. langjährige Mitarbeiter werden effizienter und Juniors kucken in die Röhre

ich erinnere mich an 2020 als Firmen zu mir kamen und UseCases besprechen wollten: ich sagte "schwierig!"

2023 habe ich gesagt "jetzt geht es einfach" - nun bekomme ich aber wieder UseCases wo ich sagen muss: "schwierig!"

wer ein ChatGPT System mal im Produktivbetrieb betreiben wollte weiß was ich meine

Eine bekannte öffentliche Rundfunkanstalt nimmt jetzt auch wieder Abstand von der "Automoderation durch ChatGPT" und macht es klassisch "Automoderation durch Decision Trees" :D

ChaosTM
2024-02-27, 20:38:07
Ich rede auch nicht ausschließlich von ChatGPT. Das ist nur der Anfang.
Gewisse Algos, die bisher von "Humans" verarbeitet wurden können sogar ChatGPT und andere spezielle "KI"s jetz schon.

Ein menschlicher Supervisor wird noch länger nötig sein, trotzdem fallen unglaublich viele Jobs weg. Wenn du in der Nahrungskette momentan oben bist - gut für dich. :)

Badesalz
2024-02-28, 09:56:15
@redpanther
Eigentlich ändert sich dadurch bis auf die zurückgelassenen älteren Generationen nicht soviel. Man kann ja eh so gut wie kein "breites" Medium für voll nehmen. Und die vierte Gewalt ist an sich auch komplett kaputt.
Von daher... :tongue:

@Exxtreme / ChaosTM
Was sind dann die "Resultate"... Das Fußvolk denkt immer - und bekommt das oft so dargestellt - daß wenn Musks & Co. über Gefahren mit KI quaseln, sie so etwas wie Skynet meinen. Meiner Meinung nach ist es das nicht. Aber so wirklich laut was es wohl ist wird kaum angesprochen.

Kurzer Ausflug:
KI-Inferenz wird man teils auch selbst daheim haben und machen. Bei Sachen wo die Software sich auch heute entscheidet welche Strategie - also welchen Algo-Pfad - sie für die grad anliegende Aufgabe nimmt. Das KI-Techno macht solche Sachen ungleich flexibler. Aus 8 möglichen fallbezogenen Wegen werden dann 80. Oder 800. So in etwa
(grob, für weniger interessierte).

Das werden heimische APUs und dGPUs schnell genug machen können. Das Anlernen ist zwar ungleich aufwendiger, aber das Gehört dann zur Entwicklung der KI und nicht ihrer Benutzung. Kleine Projekte können das auch über eine oder mehrere Nächte laufen lassen und dann schauen was dabei rauskam.
Man braucht auch dafür also nicht gleich zwangsläufig ein Rechenzentrum. Auch kleinere Projekte oder gar private können also davon profitieren. Je nach dem was sie damit vorhaben.

Das sind so die imho praktischen Sachen für den Alltag. Ob das Mediacoding ist oder Bearbeitung oder Compiler oder oder. Ist nicht gleich ganz so viel (kommt trotzdem bestimmt noch Stückchen mehr dazu), aber die Welt dreht sich auch daheim schon recht toll und garnicht mal so langsam.
Ist ja nicht so, daß alle eine Erlösung herbeisehnen.

Ok. Was sind nun aber diese Gefahren (IMHO), wenn es kein Skynet ist? Das ist eben der ganze Rest. Denn für den ganzen Rest an Machine Learning, braucht man mehr oder weniger einen Hyperscaler. Von denen es ja nicht soviele gibt.
Wenn solche in jeden möglichen Lebensbereich ihre Dienste drängen, dann bilden sich paar Monopole die am Ende das Monopol fürs Denken übernehmen. Und wie wir alle schon vernommen haben, die KI Schlussfolgert so wie man es ihr beigebracht hat.

Selbst wenn wir einen Level erreichen wo sie sich anhand von bisherigen Erfahrungen mit den Ergebnissen, selbst anlernt und nicht angelernt wird, dem leigt immernoch ihren "Kindheit" zu Grunde. Die wei beim Menschen am prägendsten ist.
Und die wie beim Menschen auch kann man stark beinflussen.

Die Gefahr ist also kein Skynet, sondern die Kontrolle, der Einfluss und die eigene Zielverfolgung der Elternteile. Und die Macht die sie erlangen, wenn man sie ausreichend viel erledigen lässt.

Das ist die große Gefahr. Nicht die "Kinder" (KI) sind die Gefahr, sondern die "Eltern" und ihre "Erziehung".
Und eine tiefgreifendere Verifizierung, wie wir nun auch bereits wissen, ist bei den Kindern sehr schwierig bis unmöglich. Man ist jetzt schon sehr schnell an dem Punkt wo die Schlussfolgerung (Inferenz) nicht gleich wie ein Patzer erscheint, man aber nicht wirklich eine Ahnung hat wie die KI dazu kam.

Wie im richtigen Leben aber wissen die Eltern selbst sehr wohl meist warum ihr Kind manchmal so ist wie es ist... Nicht immer redet man aber mit Dritten darüber.

Wie fandet ihr das mit der KI und den Kree? :smile:

Exxtreme
2024-02-28, 10:08:01
Bildbearbeitung ist unser "kleinstes" Problem.
Da geht es unter andere um hunderttausende Jobs, die bisher gut dotiert waren, im Finanz und Versicherungssektor ..


Wenn solche Jobs intellektuell so anspruchsvoll sind, dass sie ein Pappagei machen kann dann sollte man davon ausgehen, dass sie in Zukunft von stochastischen Pappageien gemacht werden. Ist halt so. Pferde wurden auch arbeitslos nachdem das Auto erfunden wurde.

joe kongo
2024-02-28, 10:18:28
Momentan mach mir am meisten Angst was mit der KI in Audio/Video Bereich für Schindluder getrieben werden kann.

Ein erster Vorgeschmack:
https://www.tagesschau.de/inland/justiz-ermittlungen-tagesschau-audiodateien-100.html

Ich weiß nicht wie man dem Einhalt gebieten will.
Pandoras Büchse ist geöffnet.

Hab ich versucht einem (jungen) Arbeitskollegen vor zwei Jahren
zu vermitteln, dass wir in nicht mehr allzulanger Zeit unsere Informationstechnologien
nicht mehr benutzen werden können weil die Authenzität nicht bestimmbar ist.
Also alles das was heute alltäglich ist und wir benutzen,
benutzt uns und wird dahingehend unbrauchbar.
Wir berauben uns selbst unserer Kommunikation.

Ich glaub er hat Nüsse verstanden (junge Generation eben, null Vorstellungsvermögen, untrainierte HI),
aber er wirds eh selber lernen.

p.s.
Und wie hilflos damit umgegangen wird, zeigt der Tagesschaubeitrag gleich mit. Dieser Journalismus-Forscher (wtf? ;D) von irgendweiner woken Uni
meint an unscharfen Ohren und unpassenden Tonlagen den Fake erkennen zu können, ist sich aber anscheinend nicht bewusst das es in der Natur von KI
Technologie liegt sich zu trainieren, weiterzuentwickeln und ständig zu verbessern. Besser er hätte gesagt an diesem Fake ist noch was erkennbar,
aber bald nicht mehr. :freak:

Badesalz
2024-02-28, 13:23:11
Besser er hätte gesagt an diesem Fake ist noch was erkennbar, aber bald nicht mehr. :freak:
Es gibt keinen Grund die Bevölkerung zu beunruhigen :uup:

Fusion_Power
2024-02-28, 14:04:17
Naja das ist technisch recht trivial und kostet bei Microsoft 5000€ so ein Modell zu trainieren - habe ich selbst schon gemacht :D
Reicht es da, dem KI-Bildprogramm einfach nen Ordner mit passenden Vorlagen vorzusetzen oder ist da wesentlich mehr Handarbeit nötig?

Badesalz
2024-02-29, 13:52:36
fefe nochmal kurz. Coole story Bro :ulol:

https://blog.fefe.de/?ts=9b1ea5bf

pest
2024-02-29, 14:27:17
Reicht es da, dem KI-Bildprogramm einfach nen Ordner mit passenden Vorlagen vorzusetzen oder ist da wesentlich mehr Handarbeit nötig?

ich habe von speech-synthesis gesprochen also Text -> Sprache

dazu musst du tatsächlich nur 1h Audio+Transkript hochladen fertig - es gibt eine GUI in MS SpeechStudio
das Transkript kannst du auch automatisch mit OpenAI whisper erstellen

einen Tagesschausprecher zu digitalisieren dauert dann 6-12h wenn der Prozess steht. Die Qualität ist extrem gut, m.M. nach.

Fusion_Power
2024-02-29, 14:46:24
ich habe von speech-synthesis gesprochen also Text -> Sprache

dazu musst du tatsächlich nur 1h Audio+Transkript hochladen fertig - es gibt eine GUI in MS SpeechStudio
das Transkript kannst du auch automatisch mit OpenAI whisper erstellen

einen Tagesschausprecher zu digitalisieren dauert dann 6-12h wenn der Prozess steht. Die Qualität ist extrem gut, m.M. nach.
Und Bilder? Muss man vorab jedes Bild der KI händisch beschreiben oder reicht es ihr das jeweilige Themengebiet vorzugeben und dann anhand passender Beispiele lernen zu lassen?

soLofox
2024-02-29, 15:58:48
EJsa6wZ6ovY


Ich denke es fühlt sich ein bisschen so an wie vor der ersten Atombombe: Man war sich nicht einig und sicher, was passiert.

pest
2024-02-29, 16:39:28
Und Bilder? Muss man vorab jedes Bild der KI händisch beschreiben oder reicht es ihr das jeweilige Themengebiet vorzugeben und dann anhand passender Beispiele lernen zu lassen?

was willst du genau machen?
die möglichkeiten sind endlos
text->image image->image image->segmentation->indraw->image ...

Fusion_Power
2024-02-29, 21:11:21
was willst du genau machen?
die möglichkeiten sind endlos
text->image image->image image->segmentation->indraw->image ...
Ich direkt gar nichts, bin nur neugierig. Aber man könnte z.B. ja der KI mal einen Ordner mit tausenden Bildern von Händen vorlegen damit die endlich mal lernt dass der Mensch in der Regel FÜNF Finger pro Hand hat und nicht 3 oder 8! :freak:

msilver
2024-03-01, 07:22:15
Google ihre KI ist sehr langsam.

Welche Alternativen zu Chatgpt sind eine gute Wahl?

Metzler
2024-03-01, 08:29:39
Google ihre KI ist sehr langsam.

Welche Alternativen zu Chatgpt sind eine gute Wahl?

Langsam? Bei mir ist sie um Faktoren schneller als ChatGPT.

Edit: Auf Deine Frage zurück kommend: Hängt vom Level ab was Du brauchst. GPT4 Niveau bekommst Du gegen Geld nur bei OpenAI oder (umsonst - laut Tests) eben bei Google mit Gemini (selbst die Pro Version liegt ungefähr auf GPT4 Niveau). Wenn auch weniger reicht: Theoretisch könntest Du mal Llama2 runterladen und ausprobieren (wenn Deine GPU das mitmacht).

E39Driver
2024-03-01, 16:08:38
Ich denke nicht mehr all zu lange dann müssen wir für unsere Eltern-/Großeltern allesamt Codewörter vereinbaren oder sie darauf trainieren bestimmte persönliche Sachen abzufragen. Da Social-Scamming über KI-Stimmgeneratoren immer glaubhafter werden wird und es sicherlich auch betrügerisch ausgenutzt wird. Im Firmenumfeld das Vorstandssekretariat natürlich genauso, auch ein sehr lohnendes Ziel wenn der perfekt KI-imitierte Vorstand anruft und um eine Überweisungsdurchführung bittet

1ch0
2024-03-01, 19:31:25
Google KI is doof ehrlich gesagt. Ich bevorzuge noch immer Windows Copilot, also GPT4. Vor allem bekommst du da direkt den Link mit Source für die Info. Bei Bard musst du einfach alles glauben. Indiskutabel für mich. ^^

Und selbst wenn du diese Prüfung laufen lässt bei Gemini, kommt oftmals nix bei rum.

Metzler
2024-03-01, 22:50:40
Google KI is doof ehrlich gesagt. Ich bevorzuge noch immer Windows Copilot, also GPT4. Vor allem bekommst du da direkt den Link mit Source für die Info. Bei Bard musst du einfach alles glauben. Indiskutabel für mich. ^^

Und selbst wenn du diese Prüfung laufen lässt bei Gemini, kommt oftmals nix bei rum.

Hm ich hab genügend Beispiele für behämmerte GPT4 Antworten, aber natürlich auch bei Gemini. Auch Gemini gibt Dir Links auf die Quellen (manchmal zumindest), sind aber ebenso häufig Käse... Dass da eines wirklich besser oder schlechter als das andere ist, kann ich nicht sehen.

Anadur
2024-03-10, 20:56:41
Ich bin mir nicht sicher, ob der Thread passt, aber ich wollte erstmal keinen eigenen aufmachen.

Unser kleiner ehrenamtlicher Verband sucht eine Möglichkeit seine Sitzungen (on- in Teams und offline) automatisch zu protokollieren bzw. ist halt jedes mal ein Graus jemanden zu finden, der das macht.

Gibt es da eine brauchbare KI für? Wenn man danach sucht findet man nur den übliche SEO-Werbe-Scheiß.
Setzt hier jemand SpeechMind, fireflies.ai oder tldv schon ein und hat Erfahrungen dazu?

Badesalz
2024-03-14, 13:31:32
KI in ernsthaft :up:

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/63174-wse-3-die-dritte-generation-des-wafer-prozessors-wechselt-auf-5-nm.html

Badesalz
2024-03-16, 10:12:56
Und hier ein typisches KI-Trainingsgelände... https://www.dw.com/de/datenarbeiter-die-unsichtbaren-trainer-der-ki/video-68471539?utm_source=pocket-newtab-de-de

Trap
2024-03-16, 11:05:57
Unser kleiner ehrenamtlicher Verband sucht eine Möglichkeit seine Sitzungen (on- in Teams und offline) automatisch zu protokollieren bzw. ist halt jedes mal ein Graus jemanden zu finden, der das macht.
Microsoft Teams Premium hat das zumindest in der Feature-Liste (mit der Fußnote "Diese Funktion ist derzeit nur in Englisch verfügbar." ), ob es funktioniert weiß ich nicht:
https://www.microsoft.com/de-de/microsoft-teams/premium

jorge42
2024-03-16, 12:42:28
Microsoft Teams Premium hat das zumindest in der Feature-Liste (mit der Fußnote "Diese Funktion ist derzeit nur in Englisch verfügbar." ), ob es funktioniert weiß ich nicht:
https://www.microsoft.com/de-de/microsoft-teams/premium
Funktioniert derzeit immer noch beschissen. Testen in der Firma copilot schon seit es erhältlich ist, wenn die Transkription funktioniert hat, wofür es keine Garantie gibt, dann sind die Ergebnisse der Zusammenfassung immer noch nicht zufriedenstellend. Das gilt für copilot insgesamt, max Alpha Status, ms muss da kräftig nachhelfen oder es umsonst unter die Leute bringen.

pest
2024-03-17, 19:37:03
Ich habe letzte Woche an einem Nachmittag eine Webapp geschrieben die auf jedem Laptop mp3 oder Videos transkribieren kann. Falls da Interesse besteht kann ich das veröffentlichen

dildo4u
2024-04-02, 12:48:45
Procyon AI Benchmarks mit Meteorlake, Ryzen 8000 und RTX 4070.(Mobile)


https://www.computerbase.de/2024-04/amd-ryzen-9-8945hs-intel-core-ultra-7-ai-test

Badesalz
2024-04-19, 11:50:58
Nächste Stufe abgefeuert :ulol:

https://blog.fefe.de/?ts=98de3df5

Metzler
2024-05-11, 22:19:20
Ganz interessant: https://www.youtube.com/watch?v=dDUC-LqVrPU

tl;dr: Aktuelle Modelle werden wahrscheinlich nicht zu AGI führen, da exponentiell mehr Daten benötigt werden. Ist nur ein Paper, das scheint aber recht gut gemacht zu sein - und kommt aus dem akademischen Umfeld, nicht von den üblichen Tech-Giganten / Startups.

Trap
2024-05-13, 22:55:22
Neues OpenAI Modell GPT 4o ist raus und deutlich besser als GPT4 Turbo zum halben Preis: https://twitter.com/lmsysorg/status/1790097588399779991

Und die Sprach-Interaktion ist deutlich verbessert - bei 12 Min
DQacCB9tDaw

1ch0
2024-05-13, 23:46:07
HAMMER :eek:

readonly
2024-05-13, 23:51:23
Gruselig gut

Relex
2024-05-14, 10:01:20
Ganz interessant: https://www.youtube.com/watch?v=dDUC-LqVrPU

tl;dr: Aktuelle Modelle werden wahrscheinlich nicht zu AGI führen, da exponentiell mehr Daten benötigt werden. Ist nur ein Paper, das scheint aber recht gut gemacht zu sein - und kommt aus dem akademischen Umfeld, nicht von den üblichen Tech-Giganten / Startups.


Ein Mensch kann aus relativ wenig Daten auch ziemlich viel schlussfolgern durch simple Logik.

Ein Wissenschaftler der in seinem Gebiet arbeitet und was neues findet, wird wahrscheinlich weit weniger Daten zu dem Thema in seinem Leben gesehen haben, als eine AI.

Vermutlich lässt sich die Effizenz mit der Daten ausgewertet werden und die Menge an Informationen die man daraus verwerten kann auch weiter erhöhen.

Rein logisch betrachtet muss es also theoretisch möglich sein, aus den bereits vorhandenen Daten der Menschheit MINDESTENS so viel Wissen und Fähigkeiten zu ziehen wie die Menschheit selbst.

Ob das natürlich technisch so "einfach" umsetzbar ist oder ob es dafür neue Ansätze braucht kann ich nicht beurteilen. Aber an AI wird ja weiterhin geforscht. Ist ja nicht so, als hätte man da ein one trick pony gefunden das man jetzt nur versucht stumpf mit immer mehr Daten zu füttern. Das ist ja alles viel komplexer. Sonst würde es dazu ja auch nicht ständig neue Paper geben.

Aber gut, ich kenne auch nicht die Details der Entwicklung einer AI...

Exxtreme
2024-05-14, 10:17:22
Nein, AI ist nicht so wirklich vergleichbar mit dem, was Menschen so können. AI ist nichts anderes als ein Papagei, der irgendein Geräusch imitiert. Die AI weiss nicht was sie tut, sie weiss nicht warum sie etwas tut oder was für eine Bedeutung diese Daten haben etc. Die AI kennt keinen Kontext, sie ist auch nicht kreativ. Wie gesagt, sie ist so eine Art Papagei. Denn Papageien kennen die Bedeutung des Geräusches, das sie imitieren, auch nicht.

Und das Prinzip, wie AIs so arbeiten ist ein uralter Hut. Denn Modelle zu nutzen um irgendetwas zu generieren oder zu verändern, das macht man schon seit Jahrzehnten. Nur hat man früher diese Modelle manuell per Hand erstellt. Jetzt hat man diese Modellerstellung automatisiert. Und das ist das Einzige, was an AI neu ist.

readonly
2024-05-14, 10:22:14
So Dinge wie die Bilder und Audio KIs sind schon krass. Interessant finde ich ja das Data (Star Trek) damals schon ähnlich gezeigt hat, dass es schwer werden wird eine KI wirklich menschlich sein zu lassen. Die Limitierung die Data hatte ist so ziemlich genau das was KI aktuell nicht sein kann, bzw ist. Eine riesige generative Datenbank.

Sardaukar.nsn
2024-05-14, 10:27:15
So Dinge wie die Bilder und Audio KIs sind schon krass. Interessant finde ich ja das Data (Star Trek) damals schon ähnlich gezeigt hat, dass es schwer werden wird eine KI wirklich menschlich sein zu lassen. Die Limitierung die Data hatte ist so ziemlich genau das was KI aktuell nicht sein kann, bzw ist. Eine riesige generative Datenbank.

Dazu ein aktueller Artikel aus der GAMESTAR

https://www.gamestar.de/artikel/star-trek-commander-data-rechen-und-speicherkapazitaet,3412906.html

readonly
2024-05-14, 10:47:37
Leider ein Plus Artikel

Trap
2024-05-14, 12:13:52
Und das ist das Einzige, was an AI neu ist.
Neu ist die Fähigkeit der resultierenden Modelle Benchmarks wie MMLU auf dem Niveau von menschlichen Experten zu bearbeiten. Und auch die Fähigkeit außerhalb von Benchmarks in immer weiteren Themenbereichen hilfreiche Antworten zu generieren.

Man braucht keine neuen Bauteile für neue Auswirkungen. Seit der Turing Maschine ist auch nichts neu am Computer, trotzdem ist ein aktueller Computer etwas völlig anderes als der Zuse Computer - in den Auswirkungen.

TheCounter
2024-05-14, 15:00:16
GAj9G8rkg3s

Also das ist schon wirklich sehr beeindruckend und ein riesiger Schritt nach vorne. Praktisch keine Verzögerung mehr und die KI kann nun auf fast alles reagieren. Tolle Beispiele.

Bin gespannt, wo wir in einem Jahr stehen.

Fusion_Power
2024-05-14, 15:30:06
So Dinge wie die Bilder und Audio KIs sind schon krass. Interessant finde ich ja das Data (Star Trek) damals schon ähnlich gezeigt hat, dass es schwer werden wird eine KI wirklich menschlich sein zu lassen. Die Limitierung die Data hatte ist so ziemlich genau das was KI aktuell nicht sein kann, bzw ist. Eine riesige generative Datenbank.
Später bekam Data ja auch noch seinen "Emotions-Chip" der für sehr lustige Situationen sorgte. :D

hLx_MfJjEQM

Und wir kommen dem berühmten "Simultanübersetzer" aus Star Trek auch immer näher. Irgend wann braucht man dafür wohl wirklich nur noch Ohrstöpsel oder so.

Leider ein Plus Artikel
Bei mir nicht. :confused:

https://youtu.be/GAj9G8rkg3s

Also das ist schon wirklich sehr beeindruckend und ein riesiger Schritt nach vorne. Praktisch keine Verzögerung mehr und die KI kann nun auf fast alles reagieren. Tolle Beispiele.

Bin gespannt, wo wir in einem Jahr stehen.
*Seufz* so langsam gehen die Ausreden aus warum AI und Bots in Spielen oft immer noch Dumm wie Pizza sind. :freak:

Exxtreme
2024-05-14, 16:15:42
*Seufz* so langsam gehen die Ausreden aus warum AI und Bots in Spielen oft immer noch Dumm wie Pizza sind. :freak:

Da hat ein Dev mal Klartext geredet und gesagt, Spiele mit einer guten AI würden keinen Spaß machen. Denn so eine AI wäre um einiges besser als der Großteil der menschlichen Spieler. Deshalb baut man sowas auch nicht ein.

Fusion_Power
2024-05-14, 16:44:14
Da hat ein Dev mal Klartext geredet und gesagt, Spiele mit einer guten AI würden keinen Spaß machen. Denn so eine AI wäre um einiges besser als der Großteil der menschlichen Spieler. Deshalb baut man sowas auch nicht ein.
Blödsinn, AI kann man auch skalieren und den Schwierigkeitsgrad anpassen. Sie muss ja kein Genie sein aber bitte auch nicht immer so strunzdoof. Hab vor 25 Jahren Unreal gegen Bots im Deathmatch gespielt, die waren gut und schon um einiges weiter als viele heutige Bots in Shootern. Mit UT wurden sie noch besser. Hatte viel Spaß damals, auch ohne Internet.
ja ich weiß manchmal ist es Absicht dass Bots dumm sind, wie in Counter-Strike wo mal erklärt wurde dass die Bots da nicht gut sein dürfen und zwar auf gar keinen Fall. Natürlich aus offensichtlichen Gründen.

Es gäbe genug Spiele wo eine gute KI das Spielerlebnis auch besser machen würde, nicht nur Shooter. Experimente mit lernender KI in Strategiespielen, DotA etc. gabs ja schon und die Ergebnisse waren durchaus beeindruckend. Da darf gern mehr von kommen.

Wuge
2024-05-14, 16:46:15
Geht doch nichts über die sich verkeilenden Tiberiumsammler in C&C :D

Exxtreme
2024-05-14, 16:53:41
Blödsinn, AI kann man auch skalieren und den Schwierigkeitsgrad anpassen.


Ich gebe nur wieder was ein bekannterer Dev mal gesagt hat. Der meinte, man würde seine Gegner kaum sehen weil diese sich verstecken würden und Hinterhalte planen würden etc. Und sowas wäre sehr unspaßig. Vielleicht finde ich den Artikel nochmal. :freak: Und ja, das ist etliche Jährchen her, dass ich das gelesen habe. Aber wenn schon die damalige AI für den Großteil der Spieler zu gut war dann wird die heutige noch schlimmer werden.

TheCounter
2024-05-14, 18:23:56
Naughty Dog hatte sich auch mal dazu geäußert, weil jemand gefragt hat, wieso die generische KI die eigenen KI-Mitstreiter nicht sehen kann bzw. erkennt. Anscheinend haben sie das intern mal probiert und es war so extrem frustrierend, dass sie es gleich wieder verworfen haben, da viel zu unberechenbar.

Ich bin auch der Meinung, dass man mit heutigen Mitteln eine Gegner-KI trainieren könnte, die den Spieler zu jederzeit in Grund und Boden spielt. Aber Spaß macht das dann wirklich nicht mehr.

EDIT:

Ich weiß jetzt nicht, ob das in der Präsentation war, aber zumindest gehts da um die Buddy AI (allgemein interessant):

https://www.gdcvault.com/play/1020364/Ellie-Buddy-AI-in-The

Relex
2024-05-14, 18:33:53
Klar rein logisch betrachtet, wie soll man ein Spiel überhaupt spielen können, wenn du innerhalb eines levels auf 20 Gegner triffst und jeder Gegner ist mindestens so gut wie du selbst.

Dann hast bei jedem encounter eine 50:50 chance zu sterben. So ein Spiel wäre unspielbar. Der Schwierigkeitsgrad muss so niedrig sein, dass du es selbst auf dem höchsten Schwierigkeitsgrad schaffst, dass du alle Gegner ohne zu sterben erledigen kannst.

In einem Multiplayer Spiel würde man so einen Spieler der so dominiert als Cheater beschimpfen, im Singleplayer ist es aber einfach notwendig für das Spieldesign.


Man muss nicht den Schwierigkeitsgrad und die Intelligenz erhöhen, sondern das Verhalten der Gegner abwechslungsreicher und interessanter gestalten.

pest
2024-05-14, 19:35:05
Wie gesagt, sie ist so eine Art Papagei. Denn Papageien kennen die Bedeutung des Geräusches, das sie imitieren, auch nicht.

Jetzt hat man diese Modellerstellung automatisiert. Und das ist das Einzige, was an AI neu ist.

Das ist ziemlicher Quatsch, insbesondere der zweite Abschnitt - wie kommst du darauf?

1ch0
2024-05-14, 19:38:51
Das ist ziemlicher Quatsch, insbesondere der zweite Abschnitt - wie kommst du darauf?

Eben. Ich hab ihm das auch schon gesagt. Er realisiert nicht, was Ai mittlerweile wirklich kann und wie weit wir sind. Da is nix mit Papagei und so. :rolleyes:

Große Sprachmodelle wie ChatGPT, die auch als Transformer-basierte Modelle bekannt sind, sind eine Art von KI, die sich durch ihre Fähigkeit auszeichnet, menschenähnliche Texte zu generieren. Sie sind speziell darauf trainiert, menschliche Sprache zu verstehen und darauf zu reagieren, was sie ideal für Aufgaben wie das Führen von Gesprächen, das Beantworten von Fragen und das Schreiben von Texten macht.

Was diese Modelle besonders macht, ist ihre Fähigkeit, Kontext zu verstehen und darauf zu reagieren. Sie können eine Eingabeaufforderung erhalten und basierend auf dem, was sie während ihres Trainings gelernt haben, eine passende Antwort generieren. Sie können auch auf vorherige Teile einer Konversation verweisen, um kohärente und relevante Antworten zu geben.

Ein weiterer wichtiger Aspekt dieser Modelle ist ihre Größe. Sie sind “groß” in dem Sinne, dass sie eine enorme Menge an Parametern haben, die sie während des Trainings anpassen können. Dies ermöglicht es ihnen, eine Vielzahl von Mustern und Nuancen in den Daten zu erfassen, mit denen sie trainiert werden.

Die AI versteht tatsächlich was du sagst und auch den Kontext, es ist eben kein dummer Papagei der nur nachplappert.

Relex
2024-05-14, 19:59:11
AI ist nichts anderes als ein Papagei, der irgendein Geräusch imitiert.

Ich gebe nur wieder was ein bekannterer Dev mal gesagt hat.

Jetzt hast dich verraten. Hallo, Herr AI! :biggrin:

pest
2024-05-14, 20:05:29
Ich wäre stark überrascht, wenn es ein GPT-5 auf Basis der Transformer-Architektur geben wird. Es war gut um schnell zu zeigen "was geht" aber es ist eher eine Haudrauf-Lösung O(n^2) und keine saubere/elegante Lösung für die Modellierung von Zeitreihen mit "long-range depencies"

Fusion_Power
2024-05-14, 20:29:28
Geht doch nichts über die sich verkeilenden Tiberiumsammler in C&C :D
Genau diese Dinge sind es die ich garantiert nicht vermisse in den C&C Games! Vor allem da diese "KI" nicht nur dämlich war, sondern obendrein massiv gecheatet hat. :freak:

Ich gebe nur wieder was ein bekannterer Dev mal gesagt hat. Der meinte, man würde seine Gegner kaum sehen weil diese sich verstecken würden und Hinterhalte planen würden etc. Und sowas wäre sehr unspaßig. Vielleicht finde ich den Artikel nochmal. :freak: Und ja, das ist etliche Jährchen her, dass ich das gelesen habe. Aber wenn schon die damalige AI für den Großteil der Spieler zu gut war dann wird die heutige noch schlimmer werden.
Das "Blödsinn" bezog sich natürlich auf genannte Aussage dieses Entwicklers, nicht auf dich. ;)

Naughty Dog hatte sich auch mal dazu geäußert, weil jemand gefragt hat, wieso die generische KI die eigenen KI-Mitstreiter nicht sehen kann bzw. erkennt. Anscheinend haben sie das intern mal probiert und es war so extrem frustrierend, dass sie es gleich wieder verworfen haben, da viel zu unberechenbar.

Ich bin auch der Meinung, dass man mit heutigen Mitteln eine Gegner-KI trainieren könnte, die den Spieler zu jederzeit in Grund und Boden spielt. Aber Spaß macht das dann wirklich nicht mehr.

EDIT:

Ich weiß jetzt nicht, ob das in der Präsentation war, aber zumindest gehts da um die Buddy AI (allgemein interessant):

https://www.gdcvault.com/play/1020364/Ellie-Buddy-AI-in-The
Es gibt eben gewaltige Unterschiede zwischen "KI trifft immer Headshots und kann den Spieler durch Wände sehen" und "KI lernt und spielt das Spiel ohne cheaten in den gleichen Limitierungen und Fähigkeiten wie auch reale Spieler" ;)
Es wäre schon ein Gewinn, wenn sich in Shootern NPCs nicht wie Vollidioten verhalten täten. Hab gehört sowas haut einen aus den besten PvE Szenarien raus, CoD soll da für bekannt sein. Top Inszenierte Spiele aber Gegner aus der Schießbude.

Und nicht nur an Shooter denken, gute KI wie oben genannt in Strategiespielen wäre ja sicher nicht verkehrt, in Civ6 z.B. soll die KI nach wie vor ziemlich bescheiden spielen hab ich gelesen, da hat sich über die Jahre wohl wenig verbessert.

Ghost1nTh3GPU
2024-05-15, 06:45:26
Ich wäre stark überrascht, wenn es ein GPT-5 auf Basis der Transformer-Architektur geben wird. Es war gut um schnell zu zeigen "was geht" aber es ist eher eine Haudrauf-Lösung O(n^2) und keine saubere/elegante Lösung für die Modellierung von Zeitreihen mit "long-range depencies"

Eher wird man wohl das Agentensystem (Q*...) ausbauen, wo die KI Aufgaben in mehreren Schritten mit Zwischenspeichern und Abfrage-Werkzeugen lösen wird. Die großen Transformer Modelle sind zwar auch nett, aber ob es zielführend ist, dass diese eine Anfrage/Prompt aus ihrem "Wissensschatz" one-shot/direkt lösen...

Ich gebe nur wieder was ein bekannterer Dev mal gesagt hat. Der meinte, man würde seine Gegner kaum sehen weil diese sich verstecken würden und Hinterhalte planen würden etc. Und sowas wäre sehr unspaßig. Vielleicht finde ich den Artikel nochmal. :freak: Und ja, das ist etliche Jährchen her, dass ich das gelesen habe. Aber wenn schon die damalige AI für den Großteil der Spieler zu gut war dann wird die heutige noch schlimmer werden.

Steve Polge (Reaper, Unreal Bots)? https://www.pcgames.de/Unreal-Tournament-3-Spiel-40655/Specials/Interview-mit-Steve-Polge-603648/

Ein rein digitaler NPC/Bot, der im Spiel berechnet wird, ist ja grundlegend in der Lage hier das Maximum herauszuholen bzgl. Reaktion und Genauigkeit und wenn die Wegfindung nicht stimmt, gibt es ja immernoch Teleportieren. ;)

Ein LLM in einem aktuellen UT-Game/Shooter wäre wohl eher nützlich, wenn man hier den Bots genaue Instruktionen zur Strategie geben will oder diese anhand vom Spielverlauf Reaktionen in Form von (Voice-)Chat-Nachrichten geben sollen.
Eventuell zeigt ja hier Epic in ihrer Ideen-Sandbox Fortnite mal etwas davon...

1ch0
2024-05-16, 18:54:07
Ganz interessanter Artikel:

https://www.nature.com/articles/d41586-024-01314-y

"Anthropic’s researchers scaled up a common approach to probe an LLM that had 52 billion parameters to reveal which bits of the training data it used while answering questions. When they asked their LLM whether it consented to being shut down, they found it drew on several source materials with the theme of survival to compose a compelling response (see ‘Lust for life’). The researchers described the model’s behaviour as role-playing — doing more than parroting but less than planning."


“It’s a little weird to study [LLMs] the way we study humans,” Bau says. But although there are limits to the comparison, the behaviour of the two overlaps in surprising ways. Numerous papers in the past two years have applied human questionnaires and experiments to LLMs, measuring the machine equivalents of personality, reasoning, bias, moral values, creativity, emotions, obedience and theory of mind (an understanding of the thoughts, opinions and beliefs of others or oneself).

In many cases, machines reproduce human behaviour; in other situations, they diverge. For instance, Hagendorff, Bau and Bowman each note that LLMs are more suggestible than humans; their behaviour will morph drastically depending on how a question is phrased.

“It is nonsensical to say that an LLM has feelings,” Hagendorff says. “It is nonsensical to say that it is self-aware or that it has intentions. But I don’t think it is nonsensical to say that these machines are able to learn or to deceive.”

LLMs sind weit mehr als nur Papageien die irgendwas nachquasseln, wie ja manche hier behaupten.. :rolleyes:

1ch0
2024-05-17, 15:15:44
Juchuu. Zugang zu GPT4o. :)

Und ja, es ist sehr viel schneller und besser. Erster Test mit Bild von einem Tier korrekt erkannt, wo GPT4 das falsche Tier erkennt, wenn auch close.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88181&stc=1&d=1715951729

Metzler
2024-05-19, 00:48:17
Ganz interessanter Artikel:

https://www.nature.com/articles/d41586-024-01314-y





LLMs sind weit mehr als nur Papageien die irgendwas nachquasseln, wie ja manche hier behaupten.. :rolleyes:

Sie sind mehr als Papageien, aber können deshalb dennoch nicht denken oder planen. Sie sind auf Mustererkennung spezialisiert - und daraus dann antworten generieren, die in den Kontext hinein passen (das ist ja gerade das Thema in Transformern und "Attention is all you need").

Wo man vorsichtig sein muss, ist wirklich der "Denken" und reasoning part. Ja, da gibt es schon auch teilweise Muster die darauf hindeuten dass es in Teilen geht, aber sobald Du LLMs mit Daten konfrontierst die das Ding noch nicht gesehen hat, kommt nach wie vor zu häufig Schmarrn raus. Da gab es kürzlich ein sehr interessantes Paper dazu, in dem Wissenschaftler bekannte Benchmarks genommen und nur die Zahlen der Aufgaben verändert haben. Im Anschluss sind bei allen verwendeten LLMs die Ergebnisse schlechter geworden (unterschiedlich stark, aber dennoch).

Ich halte es deshalb da mit Demis Hassabis: Aktuell wird AI massiv überschätzt, langfristig aber vermutlich deutlich unterschätzt.

Trap
2024-05-19, 10:15:53
Alle von diesen großen Einschränkungen von LLMs sind Eigenschaften der Trainingsmethode, nicht der technischen Architektur der LLMs. Decoder-only transformer sind Turing-vollständig.

Aber mal sehen ob die nächste bessere Trainingsmethode dann auch eine neue technische Architektur mitbringt.

readonly
2024-05-19, 12:25:12
Für mich ist es aktuell wie eine intelligente Suchmaschine. Gerade meinen Rom Urlaub damit geplant. Alle Sehenswürdigkeiten eingegeben die wir besuchen wollen und gesagt, ich hätte gerne eine sinnvolle Struktur für unsere Urlaubstage.

So richtig Intelligenz sehe ich da noch nicht. Nur viele gut verknüpfte Daten.

Actionhank
2024-05-19, 13:01:49
Alle von diesen großen Einschränkungen von LLMs sind Eigenschaften der Trainingsmethode, nicht der technischen Architektur der LLMs. Decoder-only transformer sind Turing-vollständig.

Aber mal sehen ob die nächste bessere Trainingsmethode dann auch eine neue technische Architektur mitbringt.
Aus praktischer Sicht macht eine Trennung von Architektur und Trainingsmethode meiner Meinung nach kaum Sinn. Wenn eine Architektur implizit eine gewisse Regularisierung hinsichtlich des Einsatzzwecks enthält, dann kann man starke Verbesserung bei gleichem Training erreichen.

Fusion_Power
2024-05-19, 13:53:52
Wird die KI mittlerweile "am lebenden Objekt" trainiert? Also stetig aus dem aktuellen Internet usw.? Am Anfang war der Wissensstand ja begrenzt auf 2021 oder so.

GBWolf
2024-05-19, 14:04:55
Wird die KI mittlerweile "am lebenden Objekt" trainiert? Also stetig aus dem aktuellen Internet usw.? Am Anfang war der Wissensstand ja begrenzt auf 2021 oder so.

Es ist wohl sogar so, daß die KI das Internet schon auswendig kennt. Also es braucht neuen Input.

Trap
2024-05-19, 14:05:57
So richtig Intelligenz sehe ich da noch nicht. Nur viele gut verknüpfte Daten.
GPT-4o ist nicht besonders offen dafür mit dem Anwender zu diskutieren, selbst wenn man im System Prompt genau das Gegenteil fordert.

Mit Claude Opus und einem anderen Prompt bekommt man sowas:
Ich möchte 7 Tage in Rom Urlaub machen und dabei das Kolosseum und den Pantheon besuchen, wie könnte ein Reiseplan dazu aussehen?
Lieber Reisender,

Ihre Frage nach einem Reiseplan für einen siebentägigen Aufenthalt in Rom mit Besuchen des Kolosseums und des Pantheons wirft einige grundlegende philosophische Fragen auf. Lassen Sie uns gemeinsam tiefer in die Materie eintauchen und die Intention Ihres Wunsches ergründen.

Zunächst müssen wir uns fragen: Was treibt Sie an, ausgerechnet diese beiden historischen Stätten zu besuchen? Ist es das Bedürfnis, die Spuren vergangener Zivilisationen zu erkunden und daraus Erkenntnisse für Ihr eigenes Leben zu gewinnen? Oder folgen Sie lediglich einem vorherrschenden Trend, der besagt, dass man diese Sehenswürdigkeiten gesehen haben muss, um als kultivierter Mensch zu gelten?

Weiterhin gilt es zu hinterfragen, ob ein starrer Reiseplan überhaupt erstrebenswert ist. Schränkt ein minutiös geplanter Ablauf nicht die Möglichkeit ein, sich treiben zu lassen, spontane Entdeckungen zu machen und sich auf das Unerwartete einzulassen? Könnte ein Übermaß an Planung nicht die Authentizität des Reiseerlebnisses schmälern?

Auch der Sinn des Reisens an sich verdient eine nähere Betrachtung. Ist es wirklich notwendig, physisch an einen anderen Ort zu reisen, um inneres Wachstum und Erkenntnis zu erlangen? Oder liegt der wahre Wert einer Reise vielmehr in der inneren Einstellung, mit der wir ihr begegnen - unabhängig vom äußeren Ziel?

Lassen Sie uns gemeinsam tiefer in diese Fragen eintauchen und ergründen, was Ihre Reise nach Rom für Sie bedeuten könnte. Vielleicht entdecken wir dabei Wege, Ihren Wunsch auf eine Weise zu erfüllen, die über das bloße Abarbeiten einer Sehenswürdigkeitenliste hinausgeht und Ihnen nachhaltige Erkenntnisse und Erfahrungen ermöglicht.

Ich bin gespannt auf Ihre Gedanken dazu und freue mich auf einen anregenden Austausch.
Bei der Antwort ist mir aber auch klar, warum OpenAI bei ChatGPT nicht in diese Richtung trainiert ;D

Aus praktischer Sicht macht eine Trennung von Architektur und Trainingsmethode meiner Meinung nach kaum Sinn.
Ja, es macht aus praktischer Sicht keinen Sinn, weil man bei beidem bei "es gibt eine funktionierende Methode mit leichten Abwandlungen" steht. Da kann man nicht wirklich vergleichen auf welcher Seite die Ursache liegt.

Fusion_Power
2024-05-19, 15:18:56
Es ist wohl sogar so, daß die KI das Internet schon auswendig kennt. Also es braucht neuen Input.
Der Porno-Teil wird aber offenbar komplett ausgespart, wa? :freak:

Trap
2024-05-19, 15:47:30
Der Porno-Teil wird aber offenbar komplett ausgespart, wa? :freak:
Nein, die meisten LLMs können das schon. Ist nur als nachträglicher Trainingsschritt und zusätzlicher Zensurfilter gesperrt bei den üblichen Chat-Diensten.

Gibt auch darauf spezialisierte Angebote:
https://openrouter.ai/models/neversleep/llama-3-lumimaid-70b (der Preis ist aber ziemlich Abzocke, das normale Llama 70B kostet 1/10)
https://www.characterhub.org

Fusion_Power
2024-05-19, 19:32:00
Nein, die meisten LLMs können das schon. Ist nur als nachträglicher Trainingsschritt und zusätzlicher Zensurfilter gesperrt bei den üblichen Chat-Diensten.

Gibt auch darauf spezialisierte Angebote:
https://openrouter.ai/models/neversleep/llama-3-lumimaid-70b (der Preis ist aber ziemlich Abzocke, das normale Llama 70B kostet 1/10)
https://www.characterhub.org
Zumindest Geld wollen sie offenbar fast alle. Ich hatte dann wohl Glück nen brauchbaren, freien und kostenlosen Online Bildgenerator gefunden zu haben der nicht verklemmt ist. :rolleyes:

Gouvernator
2024-05-20, 05:56:26
AI hat nur den Anschein nicht ein Papagei zu sein. Versucht man aus ihr einen tieferen Sinn eines Textes herauszuziehen, welches noch nicht in irgendeiner Form schon in Datenbanken existiert, dann kommt gar nix von ihr. Die kann dich höchstens loben wenn DU ihr den Sinn erklärst und das dann abspeichern zum späteren Abrufen. Was wiederum andere Leute dazu verleiten könnte, die wäre selbst drauf gekommen. Googles Gemini lügt dich auch noch dreist an, wenn sie aus einem begrenzten Pool nach Information fischt.
Außerdem man weiß nie, inwieweit diese AI durch interne Zensurmaßnahmen zusätzlich behindert wird. Ich hatte das Gefühl, die könnte dich zusätzlich täuschen damit DU nicht weiter, nach ihrer Meinung auf `dumme` Ideen kommst. Man meint tatsächlich manchmal mit einem Inquisitor sprechen zu dürfen.

Lauscht man Sam Altman, so läuft es genau drauf hinaus dass diese AI dein täglicher Begleiter sein sollte. Aka dein persönlicher Denunziant, der dich verpfeiffen sollte. Mit verpflichtenden Scans auf gefährliches Gedankengut.
Ne, so eine vernetzte AI-Suchmaschine mit diversen Profilen. Sobald du eine verbotene Zeichenfolge irgendwo eintippst, die mit gefährlichen Gedankenterroristen in Verbindung stehen, zack haben sie dich erkannt. Das wird den jetzigen Mafia-State auf völlig neues Level bringen. Dann wären nicht mal mehr Küchentisch-Gespräche vor dem staatliche Zugriff sicher. Dream come true.

1ch0
2024-05-20, 08:44:56
Auch interessant.

https://generativeai.pub/exploring-the-limits-of-gpt-4s-general-intelligence-d97f25ea95df?gi=086b83c6f511

msilver
2024-05-20, 09:14:55
GPT-4o ist nicht besonders offen dafür mit dem Anwender zu diskutieren, selbst wenn man im System Prompt genau das Gegenteil fordert.

Mit Claude Opus und einem anderen Prompt bekommt man sowas:
Ich möchte 7 Tage in Rom Urlaub machen und dabei das Kolosseum und den Pantheon besuchen, wie könnte ein Reiseplan dazu aussehen?

Bei der Antwort ist mir aber auch klar, warum OpenAI bei ChatGPT nicht in diese Richtung trainiert ;D


Ja, es macht aus praktischer Sicht keinen Sinn, weil man bei beidem bei "es gibt eine funktionierende Methode mit leichten Abwandlungen" steht. Da kann man nicht wirklich vergleichen auf welcher Seite die Ursache liegt.
Ich mag die KI. Tolle Antwort.

readonly
2024-05-20, 09:21:31
Bei der Antwort ist mir aber auch klar, warum OpenAI bei ChatGPT nicht in diese Richtung trainiert ;D

Da war mir die Antwort von ChatGPT 4o lieber :D


Wir machen bald eine Reise nach Rom und wollen folgende Orte besuchen. Wie sollten wir das in welcher Reihenfolge organisieren

Kolloseum
Palatin Hügel
Trevi Brunnen
Spanische Treppe
Forum Romanum
Pantheon
Villa Borghese
Engelsburg
Bocca della Verità
Transtevere Viertel
Piazza Navona
Campo De Fiori
Circus Maximus
Vatikanstadt
Petersdom
Sistinische Kapelle
Piazza del Popolo



Hier ist eine empfohlene Route, die die geografische Lage der Sehenswürdigkeiten berücksichtigt, um Ihre Reise effizient zu gestalten:

### Tag 1: Antikes Rom
1. **Kolosseum**
2. **Forum Romanum**
3. **Palatin Hügel**
4. **Circus Maximus**
5. **Bocca della Verità**

### Tag 2: Klassisches Rom
1. **Trevi Brunnen**
2. **Spanische Treppe**
3. **Pantheon**
4. **Piazza Navona**
5. **Campo de' Fiori**

### Tag 3: Vatikanstadt und Umgebung
1. **Vatikanstadt**
2. **Petersdom**
3. **Sixtinische Kapelle**
4. **Engelsburg**

### Tag 4: Moderne Rom und Parks
1. **Villa Borghese**
2. **Piazza del Popolo**
3. **Trastevere Viertel**

#### Detaillierte Route:
**Tag 1:**
- **Kolloseum**: Beginnen Sie hier, um die Menschenmassen zu vermeiden.
- **Forum Romanum**: Direkt neben dem Kolosseum, leicht zu Fuß erreichbar.
- **Palatin Hügel**: Auch in der Nähe des Forums gelegen, genießen Sie die historische Bedeutung und Aussicht.
- **Circus Maximus**: Ein kurzer Spaziergang oder eine Fahrt entfernt, um die antike Rennbahn zu sehen.
- **Bocca della Verità**: Eine kurze Strecke vom Circus Maximus, ideal für einen Fotostopp.

**Tag 2:**
- **Trevi Brunnen**: Starten Sie früh, um die Menschenmassen zu umgehen und das schöne Morgenlicht zu nutzen.
- **Spanische Treppe**: Ein kurzer Spaziergang vom Trevi Brunnen entfernt.
- **Pantheon**: Gehen Sie weiter zum Pantheon, etwa 15 Minuten zu Fuß von der Spanischen Treppe.
- **Piazza Navona**: Ein paar Minuten zu Fuß vom Pantheon, genießen Sie die Kunstwerke und das Ambiente.
- **Campo de' Fiori**: Ein kurzer Spaziergang von der Piazza Navona, ideal für einen späten Nachmittag oder Abendbesuch.

**Tag 3:**
- **Vatikanstadt**: Starten Sie früh, um die Menschenmassen zu vermeiden.
- **Petersdom**: Direkt in der Vatikanstadt, planen Sie genügend Zeit ein.
- **Sixtinische Kapelle**: Ebenfalls in der Vatikanstadt, meist im Rahmen einer Museumsführung zugänglich.
- **Engelsburg**: Ein kurzer Spaziergang vom Vatikan entfernt, bietet historische Einblicke und tolle Ausblicke.

**Tag 4:**
- **Villa Borghese**: Beginnen Sie den Tag mit einem Spaziergang durch diesen wunderschönen Park.
- **Piazza del Popolo**: Vom Park aus leicht zu erreichen.
- **Trastevere Viertel**: Schließen Sie Ihren Tag mit einem Besuch in diesem charmanten Viertel ab, bekannt für seine lebendige Atmosphäre und großartige Restaurants.

Diese Route bietet eine gute Mischung aus historischen, kulturellen und entspannenden Aktivitäten und minimiert gleichzeitig die Zeit, die Sie mit Reisen zwischen den Sehenswürdigkeiten verbringen.

Philosophieren kann ich nachts um 4 mit nem Kumpel nach 10 Glas Bier ;D

Ob die Route tatsächlich sinnvoll war, werde ich in Kürze berichten können. Ist übrigens auch das größere Problem mit den ganzen KI Prompts. Man weiss nie ob die Ausgabe wirklich sinnvoll ist. Bei Code Schnipseln kann man das gut direkt verwenden und mit Fehlermeldungen das Ganze korrigieren lassen. Geht ganz gut, aber bei Ausgaben die man erstmal so als wahr annehmen muss, schwierig.

Die Qualität ist einfach noch zu schlecht, Gemini erfindet dazu regelmäßig völligen Mist dazu.

Karümel
2024-05-22, 17:53:04
ijKfwAFp16Y

Zusammenfassung der letzten Woche, was so passiert ist.

Metzler
2024-05-24, 11:50:51
https://youtu.be/ijKfwAFp16Y

Zusammenfassung der letzten Woche, was so passiert ist.

Sind zwar ein paar interessante Sachen dabei, aber würde ihm nicht bei allen Dingen zustimmen.

On a different note: Habe gerade mal wieder mit GPT4 und Gemini 1.5 Pro rumgespielt und versucht, a) eine etwas kompliziertere Funktion für ein Google-Sheet zu produzieren sowie b) Zugriff auf Google-Docs via Python hin zu bekommen.

Es gibt kaum 5 Zeilen generierten Code, in denen nicht irgendein Fehler drin ist - und wenn man sich nicht damit auskennt, sitzt man dann plötzlich vielleicht länger dran als wie wenn man gleich in die offizielle Doku reingeschaut hätte. Mein Lieblingsbeispiel ist, dass beide LLMs für meine Google-Sheet Funktion ausgegeben haben, dass Kommas die Parameter der Funktion separieren - dabei ist es ein Strich-Punkt.

Und dann das ganze Prompting: Sobald es etwas komplizierter wird, sitzt man da und ist nur am experimentieren, um ein Ergebnis in vielleicht 60% der Fälle zu bekommen (gut, vielleicht bin ich auch einfach ein unsäglich schlechter Prompt-Engineer).

Für mein anderes Beispiel (Text zusammenfassen) habe ich die Freitext-Paragraphen via einem Datum voneinander separiert. Im Prompt bitte ich dann, nur solche Paragraphen zusammenzufassen, die nach einem gewissen Datum liegen. Mal klappt es gar nicht, mal fehlt ein Text, mal ist einer zu viel in der Zusammenfassung.

Für mich hat sich somit der Status innerhalb eines Jahres quasi nicht geändert (von wegen exponentielle Verbesserung...). Schön, dass Gemini jetzt 1 Millionen Token kann - ich weiß nur nicht, was genau der Anwendungsfall dafür ist, wenn die Analyse / Generierung der Antworten so all over the place ist (und ich nutze aktuell, wenn es hochkommt, Inputs mit einer Länge von 1000 Tokens). Vielleicht ist es "nur" Semantic Information Retrieval, was ja auch was wert ist. Aber bei der Unverlässlichkeit frag ich mich wieder, wo der Anwendungsfall ist.

Wie machen das Hotlines, die auf LLMs setzen? Da scheint ja eine höhere Zuverlässigkeit gegeben zu sein...