Archiv verlassen und diese Seite im Standarddesign anzeigen : Gehirn mit 100 Mrd. Neuronen vollständig simulieren?
nonharderware
2021-07-25, 22:13:24
Hallo,
mir stellt sich die Frage wieso man nicht das Gehirn nachbaut.
TrueNorth - https://de.wikipedia.org/wiki/TrueNorth - hat 1 Mio. künstlicher Neuronen.
Das menschliche Gehirn hat 100 Mrd. Neuronen.
Ergo 100.000 Einheiten und man hat die Neuronenanzahl des Gehirns.
Bei angenommenen 30x10x1cm Volumen könnte man 100 Einheiten auf der Fläche einer 30x10m Lagerhalle auslegen und davon 1.000 Schichten machen - ergo würde 10m Hallenhöhe hierfür benötigt.
Mit Kühlung etc. wäre also eine technische Kopie von 100 Mrd. Neuronen auf 60x20x20m möglich.
Wieso macht dies keiner?
:confused:
Rooter
2021-07-25, 22:22:00
Im Gehirn geht es ja mehr um die Vernetzung der Neuronen untereinander, nicht nur um die simple Anzahl.
MfG
Rooter
nonharderware
2021-07-25, 22:28:46
Im Gehirn geht es ja mehr um die Vernetzung der Neuronen untereinander, nicht nur um die simple Anzahl.
MfG
Rooter
Die wird man ja auch hinbekommen - Platz ist ja genug da. Die Latenz wird halt ein wenig leiden.
Radeonfreak
2021-07-25, 22:31:49
Wieso macht dies keiner?
:confused:
Die enstehende Singularität würde das Leben der Menschheit auf den Kopf stellen und dich persönlich verunsichern.
basix
2021-07-25, 22:33:24
Latenz: Jetzt weisst du, wieso es nicht klappt, zumindest nicht bei 20x20x20m anstatt [cm]. Nicht umsonst sind Gehirne möglichst kompakt gebaut. Latenzarme Kommunikation ist extrem wichtig und hier gibt es mit der Lichtgeschwindigkeit eine Obergrenze.
nonharderware
2021-07-25, 22:42:05
Latenz: Jetzt weisst du, wieso es nicht klappt, zumindest nicht bei 20x20x20m anstatt [cm]. Nicht umsonst sind Gehirne möglichst kompakt gebaut. Latenzarme Kommunikation ist extrem wichtig und hier gibt es mit der Lichtgeschwindigkeit eine Obergrenze.
Latenz als große Hürde?
Hm...
Bzgl. Göße:
Soweit mir bekannt ist, sind Gehirne nicht durch Volumen per se limitiert, sondern durch Faktoren wie
- Öffnung des Geburtskanals bzw. der Entwicklungsumgebung bei nicht-höheren Säugern (Ei)
- Muskelmasse zwecks Stabilisierung des Kopfes im Alltag
Rabiata
2021-07-26, 00:02:37
Nicht zu vergessen daß jedes Neuron mehrere hundert oder tausend Verbindungen haben kann. Damit kommen wir von 100 Milliarden eher zu 100 Billionen.
Ersteres sollte noch in einen modernen Server passen (ein AMD Epyc unterstützt Module bis 128 GB). Letzteres ist Supercomputerniveau, und dann sollten die Verbindungen auch noch in vernünftiger Geschwindigkeit simuliert werden.
Ich les gerade das entsprechende Buch von Ray Kurzweil. Er argumentiert recht schlüssig, dass man die Gehirn-Hardware gar nicht nachbauen muss sondern eine funktionale Emulation reicht. Die Rechenleistung ist quasi schon da, man muss nur das Gehirn noch viel besser verstehen um die entsprechende Software zu schreiben.
Sollten wir in der Lage sein Intelligenz zu programmieren (nehmen wir mal an auf menschlichem Level) und das dann auf einer großen, vernetzten Kiste starten, haste die Singularität. Denn was dann passiert liegt nicht mehr in Menschenhand.
Rooter
2021-07-26, 14:23:40
Sollten wir in der Lage sein Intelligenz zu programmieren (nehmen wir mal an auf menschlichem Level) und das dann auf einer großen, vernetzten Kiste starten, haste die Singularität. Denn was dann passiert liegt nicht mehr in Menschenhand.Imho der beste Artikel im Netz zu dem Thema:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
MfG
Rooter
ChaosTM
2021-07-26, 14:27:41
Ich les gerade das entsprechende Buch von Ray Kurzweil. Er argumentiert recht schlüssig, dass man die Gehirn-Hardware gar nicht nachbauen muss sondern eine funktionale Emulation reicht. Die Rechenleistung ist quasi schon da, man muss nur das Gehirn noch viel besser verstehen um die entsprechende Software zu schreiben.
Sollten wir in der Lage sein Intelligenz zu programmieren (nehmen wir mal an auf menschlichem Level) und das dann auf einer großen, vernetzten Kiste starten, haste die Singularität. Denn was dann passiert liegt nicht mehr in Menschenhand.
Kurzweil hat leider immer noch nicht realisiert, dass Moors Law und die Verkleinerung an sich nicht ewig weiter gehen können. Er steckt noch ca. im Jahr 2002 fest, als er "Long Bet One"* abschloss. Selbst mit neuen optischen Computern oder Prozessoren auf Graphen Basis können wir das Spiel nicht so weiterspielen. Mit Programmierbaren Quantenrechnern könnte sich das Blatt aber wieder wenden.
Er ist aber sehr interessant zu lesen.
Nebenbei ist das Aushängeschild von Google LLC, hat aber nicht wirklich viel zu sagen.
Er hat aber zweifelsohne viel junge Ingenieure und Wissenschaftler inspiriert.
* im Jahr 2029 wird ein Computer den Turing Test bestehen. Das könnte sogar eintreffen. Kommt auf die genaue Definition des Test an.
Add.: ich glaube nicht, dass wir Intelligenz im herkömmlichen Sinn programmieren können. Wir können aber Tools schaffen, die eine Art Evolution in Gang setzten. Das "Maschinenlernen" im wahrsten Sinn des Wortes.
Das ist glaube ich etwas, dass sich so wie wir Menschen "langsam" entwickeln muss. In dem Fall natürlich deutlich schneller als bei uns.
Geldmann3
2021-07-26, 14:51:36
Zwar glaube ich, dass Moores Law sich in diesem Jahrzehnt dem Ende entgegenneigt, doch ich vermute wir werden noch viele Jahrzehnte in der Lage sein die Rechenleistung entsprechend zu steigern. Egal ob mit anderen Materialen, MCM, 3D Stacking, Optical Computing oder was sonst noch kommen mag. Vielleicht wird es sowas generell einsetzbares wie Silizium nicht noch einmal geben, sondern man muss in der Zukunft exakt für eine Aufgabe konzipierte Technologie verwenden.
Manche Anwendungen benötigen einen hohen Rechentakt, dann brauchen wir kleine Chips, welche eine hohe Energiedichte verkraften oder müssen auf sowas wie Optical Computing zurückgreifen, manche Anwendungen brauchen viele Verbindungen, dann könnten wir extrem 3D stacken und manchmal brauchen wir einfach nur viele Recheneinheiten, die aber auch maßvoll hoch takten müssen, dafür könnten wir MCM-Technologie verwenden, die nicht so sehr gestackt ist, weil sonst die Hitze nicht mehr abgeführt werden kann.
Ich glaube wir werden das menschliche Gehirn noch in diesem Jahrhundert in einem 3x3x3xcm großen Würfel abbilden können und es dabei sogar stark outperformen.
(Ist völlig aus der Luft gezogen.)
RaumKraehe
2021-07-26, 15:28:44
Latenz: Jetzt weisst du, wieso es nicht klappt, zumindest nicht bei 20x20x20m anstatt [cm]. Nicht umsonst sind Gehirne möglichst kompakt gebaut. Latenzarme Kommunikation ist extrem wichtig und hier gibt es mit der Lichtgeschwindigkeit eine Obergrenze.
Das Gehirn arbeitet nur mit Latenz und das es das weiß kann es sehr gut damit umgehen. Die Infos vom Auge über die Sehbahn im Gehirn (eines der schnellsten Verbindungen) benötigt irgend was zwischen 95-150 ms.
Der Vorteil des Gehirnes ist es eher massiv parallel arbeiten zu können.
Zwar glaube ich, dass Moores Law sich in diesem Jahrzehnt dem Ende entgegenneigt,
Moores Law ist spätestens seit der 45nm Generation tot.
iamthebear
2021-07-26, 18:38:38
1.) Moores Law ist doch schon jetzt am Ende. Wenn man nach den realen Transistordichten statt den Marketingnamen der Fertigungstechnologien geht, dann hat sich der 2 Jahres Zyklus bereits verdoppelt. Einmal abgesehen davon hat man das Problem, dass Energiebedarf und Fertigungskosten bei Weitem nicht mehr linear skalieren, weshalb man aus dem Shrink immer weniger Nutzen zieht.
2.) Das Problem ist nicht die Hardware. Rechenleistung ist in emulierter Form genug da, da sich das ja wunderbar parallelisieren lässt und es muss das Ganze ja nicht unbedingt in Echtzeit laufen.
Die 2 Hauptprobleme die ich sehe sind:
.) Wir wissen zum Großteil nicht wie ein Gehirn funktioniert.
.) Die Vorgänge in einem Gehirn sind zu einem großen Teil von phyischen Prozessen rundherum abhängig und da denke ich nicht nur an so Dinge wie hören oder sehen, sondern an Unmengen an Botenstoffen, die unbewusst Einfluss haben. Ein Gehirn ist nicht wie ein Mikrochip, der unabhängig von den Umgebungsbedingungen immer dasselbe Ergebnis produziert solange er nicht zerstört wird. Ein Gehirn reagiert hier ganz anders.
Ich denke hier müssten wir vorher überhaupt einmal den Ablauf auf zellulärer Ebene verstehen.
Sieht man das menschliche Gehirn als Computer, so hat die Menschheit ca. den Entwicklungsgrad eines Hardwarebastlers daheim ohne weitere IT Ausbildung:
.) Hat man durch Versuch und Irrtum die Bedeutung einiger Einträge in den Konfigurationsdateien verstanden (DNA) und kann diese vergleichen
.) Man weiß da fließt Strom und hat schon verstanden, wie grundsätzlich ein Transistor funktioniert.
.) Man hat herausgefunden, welcher Chip auf dem Mainboard was macht und kann diesen aus und wieder ein löten und hofft dass dabei nicht kapputt geht.
.) Man kann einige Komponenten wie Gehäuse oder Lüfter behelfsmäßig ersetzen, aber selbst da funktionieren Lüftersteuerung etc. schon nicht mehr.
Aber davon einen eigenen funktionsfähigen PC mitsamt all seinen Komponenten zu bauen bzw. überhaupt den Bauplan zu verstehen ist man noch meilenweit entfernt.
3.) Wenn man so ein Projekt beginnt, so muss man möglichst klein mit Einzellern anfangen aber selbst hier sind wir ja hoffnungslos überfordert.
vinacis_vivids
2021-07-26, 19:37:01
95% der Leute nutzen doch meistens eh nur ihr Stammhirn.
99% der Leute nutzen doch eh nur 5-10% ihres gesamten Hirnpotentials.
Wozu das Hirn komplett simulieren, wenn es auch mit weniger funktioniert? ;D
Das Hirn komplett zu simulieren ist nur interessant für Milliardäre, die nach ihrem körperlichen Ableben ihren "Geist" bzw. "Gehirn" weiterleben lassen wollen. Vielleicht in einem neuen Körper.
Abgesehen davon gibt es schon mentale Programme fürs Gehirntraining und Gehirnprogrammierung durch das Bewusstsein und Unterbewusstsein.
nonharderware
2021-07-26, 20:02:58
Sollten wir in der Lage sein Intelligenz zu programmieren (nehmen wir mal an auf menschlichem Level) und das dann auf einer großen, vernetzten Kiste starten, haste die Singularität. Denn was dann passiert liegt nicht mehr in Menschenhand.
Genau darauf hoffe ich.
Thomas Gräf
2021-07-27, 01:35:06
Genau darauf hoffe ich.
Die gefühlslose Welt haste doch jetzt schon.
1.) Moores Law ist doch schon jetzt am Ende. Wenn man nach den realen Transistordichten statt den Marketingnamen der Fertigungstechnologien geht, dann hat sich der 2 Jahres Zyklus bereits verdoppelt. Einmal abgesehen davon hat man das Problem, dass Energiebedarf und Fertigungskosten bei Weitem nicht mehr linear skalieren, weshalb man aus dem Shrink immer weniger Nutzen zieht.
Vor allem geht es bei Moores Law nicht primär um die erreichbaren Transistordichten sondern deren Kosten.
Moores Law sagt nicht, dass sich die Transistordichten verdoppeln, es sagt, dass sich die Bauteilanzahl kostenneutral verdoppelt, das wurde zwar Jahrzehntelang hauptsächlich über die Dichte erreicht, allerdings ist das keine Voraussetzung.
Der einzige Bereich der das noch einigermaßen erreichen kann ist der Flash-Speicher, wobei das hier auch nicht durch höhere Bauteildichten sondern durch Stacking erreicht wird.
Für Moores Law ist nicht entscheidend was man technisch bauen kann, sondern zu welchen kosten. Rein technisch könnte man mit anderen Verfahren als Lithografie deutlich höhere Bauteildichten erreichen.
Diese Fertigungsverfahren sind aber alle nicht massentauglich und die Fertigungskosten pro Chip würden nicht 2 oder 3 stellig, sondern 6-7 stellig sein.
Wenn man die Kosten pro Waferfläche halbieren könnte wäre Moores Law genauso erfüllt, wenn man die Transistordichte verdoppelt, dafür aber die Fertigungskosten pro Fläche auch verdoppelt ist Moores Law nicht mehr erfüllt.
nonharderware
2021-07-27, 09:42:54
Die gefühlslose Welt haste doch jetzt schon.
Lass es mich in Star Trek ausdrücken:
Wir leben als Ferengi.
Ich wünsche mir aber Vulkan.
Borg wäre am Schönsten...
iamthebears Beitrag ist super, so in etwa sehe ich das auch :)
Die Frage ist, wann sind wir in der Lage ein sich selbst optimierendes Programm zu schreiben. Ab da haben wir nichts mehr zu tun. Was dann passiert wird sich wohl an der Evolution orientieren (wäre dann nicht so gut für uns) aber wer weiß.
RaumKraehe
2021-07-27, 10:23:08
95% der Leute nutzen doch meistens eh nur ihr Stammhirn.
99% der Leute nutzen doch eh nur 5-10% ihres gesamten Hirnpotentials.
Das ist einfach kompletter Blödsin und eine urbane Legende. Wenn das Hirn nur mit 10% seiner Kapazität auskommen würde dann wäre es auch nur 10% so groß. Die Natur würde nie ein Organ entwickeln das man am Ende nicht nutzt. Das ist einfach Verschwendung.
Jeder, ob nun Vollpfosten oder Genie nutzt immer 100% seines Hirnes.
Doomtrain
2021-07-27, 11:01:14
Meine Vorstellung vom Gehirn ist etwas anders. Ein Gehirn zu simulieren ist schwierig da es völlig anders funktioniert als ein Computer. Es rechnet nicht und benutzt auch keinen Binärcode. Es ist vielmehr eine Kombination aus Hardware und Software. Es lebt...
Man weiß immer noch nicht wie es genau funktioniert, nur theoretisch und ansatzweise...eine Kopie ist daher auch langfristig nicht zu erwarten...
thomas62
2021-07-27, 13:03:28
ich behaupte mal das alle Computer der welt es nicht schaffen .
Ein künstliches Gehirn zu regenerieren von einem Menschen mit allem was dazugehört.
Man muss es nur schaffen den Teil zur Reife zu bringen, der dann selbst in der Lage ist den Rest zu erledigen. Der oben verlinkte Artikel ist gut. Beschreibt letztlich das was Kurzweil auch im Buch herleitet. Er ist bzw. war zu optimistisch was die Timeline angeht aber die Tendenz ist klar.
Skysnake
2021-07-28, 16:01:15
Ich sag einfach mal blue brain Project viel mehr gibt es meines Wissens nach dazu eigentlich auch nach aktuellem wissenschaftlichen Stand nicht zu sagen.
Wir haben seit langer Zeit das Connectome (so nennt sich die komplette neuronale Vernetzungs einer Lebensform) von einem kleinen Wurm, mit 302 Neuronen (nein, nicht 302 Mrd, nicht 302 Millionen, nicht 302k, sondern wirklich nur 302. das was ein 80x86 verkraften kann).
Viele arbeiten dran, diesen Wurm zu simulieren, z.B. http://openworm.org/ aber das ist noch weit entfernt.
https://www.dasgehirn.info/
Ist schon seit Jahren eine super Webseite, mit Inhalt zusammengetragen oder geschrieben von Menschen die interdisziplinär in vielen Bereichen rund um das Gehirn beschäftigt sind/forschen/entwickeln.
DavChrFen
2021-08-13, 03:01:54
Meine Vorstellung vom Gehirn ist etwas anders. Ein Gehirn zu simulieren ist schwierig da es völlig anders funktioniert als ein Computer. Es rechnet nicht und benutzt auch keinen Binärcode. Es ist vielmehr eine Kombination aus Hardware und Software. Es lebt...
Man weiß immer noch nicht wie es genau funktioniert, nur theoretisch und ansatzweise...eine Kopie ist daher auch langfristig nicht zu erwarten...
Klar funktionieren Neuronen anders als eine heutige CPU. Aber eine CPU kann das simulieren. Das ist zwar ziemlich ineffizient, aber es geht.
Es gibt auch Forschung um mal ein Gehirn (in dem Fall Maus bzw. Teil davon) so einzuscannen, dass man was simulieren kann:
https://www.heise.de/hintergrund/Karte-zeigt-eine-halbe-Milliarde-Nervenverbindungen-in-einem-Maeusegehirn-6158069.html
Es gibt auch ein längerfristig angelegtes Forschungsprojekt, dass ein Mäusegehirn wohl auf ähnliche Art und Weise komplett scannen will. Finde gerade nicht die Referenz dazu.
Dr. Lars Sahmströhm
2022-03-21, 07:09:28
Der fundamentale Verständnisfehler beginnt dort, wo man glaubt, das Gehirn wäre "nur" eine art biologischer Superprozessor, der in Echtzeit Daten von seinen Sensoren verarbeitet und daraus Handlungsoptionen ableitet, es ist aber vor allem ein extrem hoch entwickelter Receiver.
Rechenleistung ist eine Sache, aber Microtubuli nachzubauen, dürfte unmöglich sein. Siehe: https://en.wikipedia.org/wiki/Quantum_mind
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.