Archiv verlassen und diese Seite im Standarddesign anzeigen : Mensch verglichen mit dem PC (Denken - MHZ, Auge - Megapixel etc..)
Schnappi
2005-01-02, 16:57:32
Mich interessiert mal, wie der Mensch so zum PC steht..
Also wir hatten hier ja mal ne Diskussion mit dem Gedächtnis usw..
Wäre cool, wenn wir mal ne tabelle oder sowas ähnliches erstellen/erspekulieren könnten, wie das denn so alles ist..
zb:
Auge - 125 Megapixel (aber wir sehen nur 1,5° scharf) Quelle (http://www.infserv.nacamar.de/digifoto/SHARPNES.html)
Gehirn - sind wir noch nicht richtig zum entschluss gekommen.
Doch wie sieht es mit MHz/GHZ/THz bei uns aus? und mb/s und überhaupt der rest?
das würde mich alles mal interessieren!
Der Mensch funktioniert nicht wie ein Computer.
Das Auge
2005-01-02, 17:02:35
lolliges Thema ;D
Also mein Gehirn hat jedenfalls schon C&Q - nämlich immer dann wenn Alkohol zugeführt wird :D
Zum Übertakten benutze ich Kaffee ;D
ironMonkey
2005-01-02, 17:12:05
Mich interessiert mal, wie der Mensch so zum PC steht..
!
Das kann man nicht vergleichen, weil in den Berreichen wo der Mensch nicht mehr weiter kommt wird ein PC( oder ähnliches) eingesetzt, ist nur Mittel zum Zweck und mehr nicht.
Tigerchen
2005-01-02, 17:29:33
Mich interessiert mal, wie der Mensch so zum PC steht..
Also wir hatten hier ja mal ne Diskussion mit dem Gedächtnis usw..
Wäre cool, wenn wir mal ne tabelle oder sowas ähnliches erstellen/erspekulieren könnten, wie das denn so alles ist..
zb:
Auge - 125 Megapixel (aber wir sehen nur 1,5° scharf) Quelle (http://www.infserv.nacamar.de/digifoto/SHARPNES.html)
Gehirn - sind wir noch nicht richtig zum entschluss gekommen.
Doch wie sieht es mit MHz/GHZ/THz bei uns aus? und mb/s und überhaupt der rest?
das würde mich alles mal interessieren!
Ein noch so schnelles Rechenwerk hat nichts mit dem Menschen zu tun. Ich seh da keine Zusammenhänge.
Die "Auflösung" der Augen könnte man Definieren - Anzahl der Sehzellen (wieviele sind das eigentlich? Gibt ja 2 Arten..)
san.salvador
2005-01-02, 17:36:47
Abgesehen davon gibts da ein unausweichliches Problem.
Analog != Digital
Duracellhäschen
2005-01-02, 17:47:07
Kann man nicht sagen, dazu bräuchte man ein komplett höchstentwickeltes Hirn, Speicherkapazität is bestimmt wesentlich höher. Mhz kann man aber doch nicht aufs Gehirn anwenden...und sowas wie Fantasie, Sprachgeschick und vieles andere kann ein PC nicht bieten....zumindestens nicht heute. Ein Hirn ist meiner Meinung nach immer einem PC überlegen, ich rede nicht von maschine und Mensch !
gisbern
2005-01-02, 17:59:37
der mensch hat pro netzhaut ca 126 mio sehzellen. 6 mio davon sind für das scharfe farbsehen, 120 mio sind für hell dunkel. macht summa sumarum gute 250 mio pixel.
Das Hirn läuft mit einem Takt von 0,5 - ca. 40 Hz, aber es hat millionen verschiedener pipelines.
das auge mag zwar mehrere millionen sehzellen haben, aber davon hat bei weitem nich jede eine eigene nervenfaser zum gehirn. vor allem am rand werden viele sehzellen durch einen einzige nervenfaser zusammengefasst.
synapsen können bis zu ~500 mal pro sekunde ein neues aktionspotential auslösen (manche mehr, manche weniger); das würde einer frequenz von 500hz entsprechen.
ich hab hier noch einen zettel zum gedächtnis, den wir in bio (lk) gekriegt haben, da steht folgendes drauf:
- im gehirn treffen pro sekunde ca 10^10 bit pro sekunde an informationen ein, aber nur die allerwenigsten werden bewusst wahrgenommen.
- das ultrakurzzeitgedächtnis (cache?) is ca 160bit groß und wird mit bis zu 16bit/s "beschrieben". kann aber informationen nur bis zu 10sek speichern.
- das mittelfristige gedächtnis (arbeitsspeicher?)is bis zu 7000bit groß, schreibgeschwindigkeit is etwa 0.5-1bit/s, die informationen werden bis zu 24h gespeichert.
- das langzeitgedächtnis (festplatte?) is 10^6 - 2x10^7bit groß (das wären maximal 2.5mb???), kann nur sehr langsam mit ~0.1bit/s "beschrieben" werden, aber informationen jahrelang speichern.
_____
das kommt mir zwar alles etwas wenig vor, aber so habens wir halt gelernt... :confused:
btw: unser gehirn arbeitet nicht analog, sondern digital!!!
Der Mensch funktioniert nicht wie ein Computer.
man könnte es doch wenigstens so sehen..
schön dass es jetzt 3 leute gesagt haben, solltet lieber posten, wenn ihr was sinnvolles, wie zb elzar es getan hat..
stav0815
2005-01-02, 19:05:08
das auge mag zwar mehrere millionen sehzellen haben, aber davon hat bei weitem nich jede eine eigene nervenfaser zum gehirn. vor allem am rand werden viele sehzellen durch einen einzige nervenfaser zusammengefasst.
synapsen können bis zu ~500 mal pro sekunde ein neues aktionspotential auslösen (manche mehr, manche weniger); das würde einer frequenz von 500hz entsprechen.
ich hab hier noch einen zettel zum gedächtnis, den wir in bio (lk) gekriegt haben, da steht folgendes drauf:
- im gehirn treffen pro sekunde ca 10^10 bit pro sekunde an informationen ein, aber nur die allerwenigsten werden bewusst wahrgenommen.
- das ultrakurzzeitgedächtnis (cache?) is ca 160bit groß und wird mit bis zu 16bit/s "beschrieben. kann aber informationen nur bis zu 10sek speichern.
- das mittelfristige gedächtnis (arbeitsspeicher?)is bis zu 7000bit groß, schreibgeschwindigkeit is etwa 0.5-1bit/s, die informationen werden bis zu 24h gespeichert.
- das langzeitgedächtnis (festplatte?) is 10^6 - 2x10^7bit groß (das wären maximal 2.5mb???), kann nur sehr langsam mit ~0.1bit/s beschrieben werden, aber informationen jahrelang speichern.
_____
das kommt mir zwar alles etwas wenig vor, aber so habens wir halt gelernt... :confused:
btw: unser gehirn arbeitet nicht analog, sondern digital!!!
DANKE =)
Duracellhäschen
2005-01-03, 02:25:04
das auge mag zwar mehrere millionen sehzellen haben, aber davon hat bei weitem nich jede eine eigene nervenfaser zum gehirn. vor allem am rand werden viele sehzellen durch einen einzige nervenfaser zusammengefasst.
synapsen können bis zu ~500 mal pro sekunde ein neues aktionspotential auslösen (manche mehr, manche weniger); das würde einer frequenz von 500hz entsprechen.
ich hab hier noch einen zettel zum gedächtnis, den wir in bio (lk) gekriegt haben, da steht folgendes drauf:
- im gehirn treffen pro sekunde ca 10^10 bit pro sekunde an informationen ein, aber nur die allerwenigsten werden bewusst wahrgenommen.
- das ultrakurzzeitgedächtnis (cache?) is ca 160bit groß und wird mit bis zu 16bit/s "beschrieben". kann aber informationen nur bis zu 10sek speichern.
- das mittelfristige gedächtnis (arbeitsspeicher?)is bis zu 7000bit groß, schreibgeschwindigkeit is etwa 0.5-1bit/s, die informationen werden bis zu 24h gespeichert.
- das langzeitgedächtnis (festplatte?) is 10^6 - 2x10^7bit groß (das wären maximal 2.5mb???), kann nur sehr langsam mit ~0.1bit/s "beschrieben" werden, aber informationen jahrelang speichern.
_____
das kommt mir zwar alles etwas wenig vor, aber so habens wir halt gelernt... :confused:
btw: unser gehirn arbeitet nicht analog, sondern digital!!!
Da gehst du aber von einem idealen Aktionspotential mit 2 ms aus, in der du noch die absolute Refraktärzeit hast, doch du lässt die relative Refraktärzeit weg. In dieser Zeit herrschen noch Nachpotentiale, d.h. De- sowie Hyperpolarisationen, da dort der Ionengehalt durch die Ionenpumpe wiederhergestellt wird. In dieser Zeit muss der Reiz dann stärker sein da die Reizschwelle höher ist. Und bitte vergleicht jetzt nicht diese im Idealfall 500Hz mit nem 3Ghz Pentium... Das ist nur der Reiz der zum Gehirn geleitet wird , nicht die Verarbeitung durch das Gehirn oder Kapazität. Und das System ist einfach ganz anders. Wie gesagt man kann glaube ich garnicht das Funktionieren eines Gehirn auf den PC wie er heutzutage funktioniert, übertragen. Hier geht es nicht um Bits und Bytes oder Speicher sondern um biochemische Prozesse. Ihr geht von dem Gehirn als CPU aus...und Elzars Geschwindigkeitsangaben beziehen sich nicht wirklich auf die Realität wie es sich bei nem PC verhält. Oder denkt ihr dass eure Erinnerung des Stocken anfängt weil eure Bilder den Speicher überfüllen oder die jpeg Bilder immernoch zu viel Platz einnehmen oder liegt es doch an den fehlenden Pixelshadern? Ich weiß nicht inwiefern man es sagen kann, aber wenn die Daten von Elzar zutreffen sollten und wir das ganze auf den PC übertragen, dann muss unser Gehirn einfach saueffizient sein, praktisch ein MegaA64 :D
DH[ger]
2005-01-03, 03:10:41
Ich weiß nur: Wär mein Auge ne Graka, wär ich reich! Und wär mein Gehirn eine Cpu auch, sowie wenn mein zentrales Nervensystem ein Mainboard wäre oder mein Herz ne Wakü. Hört sich jetzt irgendwie ein bisserl Freak an. Ich denke, dass man das nur ganz grob theoretisch beschreiben kann.
Duracellhäschen
2005-01-03, 03:13:15
Würde das Herz eher als Teil des Netzteils sehen... weisst scho O2 for everybody and every cell :D
Bockwurst
2005-01-03, 11:31:57
Die Sache mit dem Gehirn sollte man wohl etwas differenzierter betrachten. So kann das Gehirn zwar alle möglichen Daten die man über die Sinne wahrnimmt superschnell verarbeiten, aber bestimmte mathematische Dinge halt nur sehr viel langsamer als ein Computer berechnen. Wobei es hier auch parallelen gibt, den sowohl Mensch als auch Computer können nur solche Dinge verarbeiten die man ihnen begebracht/einprogrammiert hat.
... Wobei es hier auch parallelen gibt, denn sowohl Mensch als auch Computer können nur solche Dinge verarbeiten die man ihnen begebracht/einprogrammiert hat.
Es soll auch einen geringen Prozentsatz an Menschen geben die lernen können :ubash2:
Tigerchen
2005-01-03, 14:45:10
das auge mag zwar mehrere millionen sehzellen haben, aber davon hat bei weitem nich jede eine eigene nervenfaser zum gehirn. vor allem am rand werden viele sehzellen durch einen einzige nervenfaser zusammengefasst.
synapsen können bis zu ~500 mal pro sekunde ein neues aktionspotential auslösen (manche mehr, manche weniger); das würde einer frequenz von 500hz entsprechen.
ich hab hier noch einen zettel zum gedächtnis, den wir in bio (lk) gekriegt haben, da steht folgendes drauf:
- im gehirn treffen pro sekunde ca 10^10 bit pro sekunde an informationen ein, aber nur die allerwenigsten werden bewusst wahrgenommen.
- das ultrakurzzeitgedächtnis (cache?) is ca 160bit groß und wird mit bis zu 16bit/s "beschrieben". kann aber informationen nur bis zu 10sek speichern.
- das mittelfristige gedächtnis (arbeitsspeicher?)is bis zu 7000bit groß, schreibgeschwindigkeit is etwa 0.5-1bit/s, die informationen werden bis zu 24h gespeichert.
- das langzeitgedächtnis (festplatte?) is 10^6 - 2x10^7bit groß (das wären maximal 2.5mb???), kann nur sehr langsam mit ~0.1bit/s "beschrieben" werden, aber informationen jahrelang speichern.
_____
das kommt mir zwar alles etwas wenig vor, aber so habens wir halt gelernt... :confused:
btw: unser gehirn arbeitet nicht analog, sondern digital!!!
Alles Schätzwerte von Computerfreaks die unbedingt Zusammenhänge zwischen Mesch/Maschine konstruieren wollen. Keiner weiß wie das Gehirn wirklich arbeitet. Und in Bits arbeitet es schon mal gar nicht.
keine schätzwerte von computerfreaks, fakten aus dem bio-lk ;)
da unser gehirn digital arbeitet, gibt es natürlich auch bits; ein bit is einfach die kleinste einheit der information, und die muss es in unserm gehirn auch geben ;)
das man das jetz 1:1 auf computer übertragen kann hab ich nich behauptet.
Tigerchen
2005-01-03, 18:53:49
keine schätzwerte von computerfreaks, fakten aus dem bio-lk ;)
da unser gehirn digital arbeitet, gibt es natürlich auch bits; ein bit is einfach die kleinste einheit der information, und die muss es in unserm gehirn auch geben ;)
das man das jetz 1:1 auf computer übertragen kann hab ich nich behauptet.
So, so. Unser Gehirn arbeitet also digital....
LeChuck
2005-01-03, 19:04:10
Das INteressante am Auge ist, dass man in der MItte ja gar keine Sehzellen hat (genau die Stelle wo alle Sehnerven zu einem Bündel zusammengeführt werden). Trotzdem fehlen uns keien Bildinformationen, z.B. nen kleiner schwarzer Punkt in der MItte. Also wird der Rest "errechnet". Das sollte mal ein Computer schaffen :)
Generationen von Forschern versuchen seit Jahrhunderten herauszufinden, wie unser Gehirn eigentlich wirklich arbeitet. Aber bis heute haben sie es noch nicht geschafft. Deshalb bin ich schon erstaunt, welches Wissen über das menschliche Gehirn manche Leute hier haben.
LeChuck
2005-01-03, 19:16:19
Generationen von Forschern versuchen seit Jahrhunderten herauszufinden, wie unser Gehirn eigentlich wirklich arbeitet. Aber bis heute haben sie es noch nicht geschafft. Deshalb bin ich schon erstaunt, welches Wissen über das menschliche Gehirn manche Leute hier haben.
Das erstaunt mich auch immer wieder :)
aber eins ist unseren wissenschaftlern schon bekannt, das gehirn arbeitet auf keinen fall nach bits und bytes, somit auch nicht digital... deswegen ist dieser pc vergleich totaler humbug...
was sich aber sicher sagen lässt:
das gehirn ist deutlich leistungsfähiger bzw. intelligenter als ein dummer computer. denn der computer macht nur das, was man vorgibt bzw. schon eingespeist hat. er ist weder noch lehrnfähig und besitzt auch kein bewusstsein, somit auch keine intelligenz.
eben nur eine dumme maschine und mehr nicht...
Das Auge
2005-01-03, 22:46:17
So, so. Unser Gehirn arbeitet also digital....
Na wie denn sonst, mit Zahnrädern und Schrauben, oder was :|
Afaik überträgt das Gehirn Informationen durch (schwache) elektrische Impulse, da kann man schon von Digital sprechen...
Afaik überträgt das Gehirn Informationen durch (schwache) elektrische Impulse, da kann man schon von Digital sprechen...
Digital bedeutet dass es nur 2 Zustände gibt, was im Gehirn aber sicherlich nicht der Fall ist. Es ist völlig analog, und die Signalpegel sind noch nicht mal linear.
Also redet kein Stuss.
san.salvador
2005-01-03, 23:26:44
Klar, alles digital.
Ich bin die 1 und ihr seid die Nullen.
:D
Also bitte, nur weil der Gatsch in unseren Köpfen mit elektrischen Impulsen arbeitet, ist das noch nicht alles digital.
Das Auge
2005-01-03, 23:29:50
Was soll ein elektrischer Impuls denn anderes übertragen, außer AN/AUS ???
-> also digital
Gut, ich hätte auch schreiben können, durch viele kurze elektrische Impulse hintereinander. Aber ganz genau kann das hier wohl sowieso keiner sagen, oder ist ein Hirnforscher anwesend? :D
Duracellhäschen
2005-01-03, 23:45:37
@Elzar: Glaubst dass deine BNioLk Daten wiorklich so fundiert sind? Jaja die Schulwissenschaft hat Anworten auf alles lol... ich habe selber einen BioLK und beschäftige mich mit solchen Dinge nauch außerhalb der Schule, bin in der K13 und solche Daten sind nicht wissenschaftlich belegt und wenn doch, gib uns doch mal die Quelle an. Das menschliche Gehirn wurde noch nicht enträtselt. Und durch diese von dir genannten Zahlen, wie in meinem vorherigern Post lässt sich die Leistung nicht vergleichen, worauf dieser Thread eigentlich abzielt.
Digital bedeutet dass es nur 2 Zustände gibt,
Falsch, digital bedeutet, dass es eine endliche Anzahl an Zuständen gibt.
Wenn es einem wichtig ist, dass es genau zwei sind, spricht man von binär.
Einige scheinen sich ja ziemlich viel auf ihr Hirn einzubilden, aber nach derzeitigem Stand der Forschung scheint ein Hirn nix zu können, was ein ausreichend schneller Computer nicht auch könnte. Das ist übrigens die große Hypothese der Intellektik, Sachen wie Kreativität sieht man folglich als reines Softwareproblem.
Was soll ein elektrischer Impuls denn anderes übertragen, außer AN/AUS ???
-> also digital
Öhm. Viel Spannung, wenig Spannung? Informier dich mal bissel über neuronale Netzwerke, das ist definitiv nicht nur An/Aus.
Falsch, digital bedeutet, dass es eine endliche Anzahl an Zuständen gibt.
Wenn es einem wichtig ist, dass es genau zwei sind, spricht man von binär.
Was trotzdem nicht der Fall ist.
Einige scheinen sich ja ziemlich viel auf ihr Hirn einzubilden, aber nach derzeitigem Stand der Forschung scheint ein Hirn nix zu können, was ein ausreichend schneller Computer nicht auch könnte. Das ist übrigens die große Hypothese der Intellektik, Sachen wie Kreativität sieht man folglich als reines Softwareproblem.
Ja. Allerdings müsste man mit derzeitigen Chips und Software ein neuronale Netz emulieren. Das ist natürlich nicht sehr Effizient.
Duracellhäschen
2005-01-04, 00:54:18
Mein Gehirn kann auf Probleme reagieren, d.h. sie erkennen und beseitigen. Dann zeig mir das doch mal bei deinem PC :D. Es kann auf Situation reagieren und braucht an sich nur Softwareupdates sozusagen für bessere Fertigkeiten, wie z.B. schreiben und lesen. Dein PC kann von Grund auf...nichts. Unser Gehirn kann sich selbst weiterentwickeln und verbessern, z.B. learning by doing sag ich nur. Freier Wille denkt sich dein PC bestimmt auch. Ich finde die Fähigkeiten des Gehirns nur auf Dinge wie Rechnen oder sowas zu beschränken is doch schrecklich. Natürlich ist ein PC schneller beim Rechnen, doch ich glaube hier ist es wie bei CPU und GPU...die GPU ist bei Grafikanwendungen super aber zu speziell als dass sie als CPU fungieren könnte, da diese allgemein alles berechnen muss. Dasselbe gilt auch meiner meinung nach für PC und Hirn :D. Ach ich finde man kann beides einfach nicht vergleichen und die Leistung benchen haha... stell dir mal vor jeder bencht sein HiRn...ohoh ich seh den 3dMurks fürs Auge schon kommen. :eek: :eek: :eek: .
Vielleicht mag das ja ein zukünftiger PC alles können, doch jetzige können es nicht und wenn es nur Softwareprobleme sind, dann beseitigt sie halt. Es gibt keien Software die einen PC zu einem HiRn, das mit dem menschlichen vergleichbar wäre, macht ( und wenn es die gäbe wäre dieser PC für uns sinnlos, dann würde er ja machen was er will ) und nicht was wir ihm sagen.
Ja. Allerdings müsste man mit derzeitigen Chips und Software ein neuronale Netz emulieren. Das ist natürlich nicht sehr Effizient.
Das ist letztlich egal. Genau so ist es letztlich auch völlig egal, ob analog oder digital. Entscheidend ist nur: Ist ein Gehirn mehr als nur turing-vollständig? Wenn nicht - und danach sieht es momentan aus - kann man Hirn und CPU einwandfrei vergleichen.
PS: Es gibt schon Versuche, neuronale Netze auf Grafikchips laufen zu lassen, was die Sache recht heftig beschleunigt.
Unfug
2005-01-04, 01:12:17
Also ich denke mal so:
Auge(grafikkarte): Naja, mehr als 50Megapixel erkenn ich nicht *G*
Gehirn (festplatte):
Die Festplatte ist sehr dynamisch aufgebaut, da es nicht wie ein "normaler Pc" alles sofort abspeichert und verwenden kann. Sie baut sich quasi langsam auf durch vieeel lernen.
Zentrales Nervensystem: Ist sozusagen unsere CPU. Diese steuert sämtliche Einheiten und gibt Befehle aus , im Format 0 und 1).
Mund(lautsprecher): Naja dazu muss ich nichts sagen, die einen haben einen grossen die anderen einen kleinen *G*
gisbern
2005-01-04, 03:01:18
Das INteressante am Auge ist, dass man in der MItte ja gar keine Sehzellen hat (genau die Stelle wo alle Sehnerven zu einem Bündel zusammengeführt werden). Trotzdem fehlen uns keien Bildinformationen, z.B. nen kleiner schwarzer Punkt in der MItte. Also wird der Rest "errechnet". Das sollte mal ein Computer schaffen :)
Das fehlende Bild wird nich einfach errechnet, es wird von der anderen Netzhaut quasi *eingespeist*. Wenn ein Objekt sich auf der linken Netzhaut auf dem sog. blinden Fleck befindet, d.h. dort wo der Sehnerv entsteht, dann fällt das Objekt auf der anderen Netzhaut auf ein mit Sehzellen besetztes Areal.
Und nochmal zu diesem Bits / Bytes :
ich kann nur sagen, daß es äußerst unwahrscheinlich ist, das die genannte Zahlen zutreffen. In meinen neusten Physiologiebüchern ( bin medizinstudent ) steht darübr nix drin, weil einfach kein Wissenschaftler darüber konkrete aussagen treffen kann.
Spasstiger
2005-01-04, 03:14:12
Das fehlende Bild wird nich einfach errechnet, es wird von der anderen Netzhaut quasi *eingespeist*. Wenn ein Objekt sich auf der linken Netzhaut auf dem sog. blinden Fleck befindet, d.h. dort wo der Sehnerv entsteht, dann fällt das Objekt auf der anderen Netzhaut auf ein mit Sehzellen besetztes Areal.
Wenn ich ein Auge zu mache, habe ich trotzdem keinen schwarzen Fleck in meinem Sichtfeld. Also wird das Gehirn durchaus die fehlenden Informationen quasi interpolieren.
Gouvernator
2005-01-04, 11:20:12
Das Gehirn besteht doch aus Teilbereichen. Ich denke mal das einige der Bereiche für Speicher , Berechnung und Ausgabe bestimmt sind. Wobei die Information wie alles zu machen ist auch irgendwo da ist. Das Gehirn ist wohl nur um Koordination und Logistik zuständig, die Gefühle und die Persönlichkeit ist woanders z.B. im Herz. Die Speichergröße ist womöglich unendlich - denkt mal an Leute die ihr Leben im Zeitraffer gesehen haben.
nochmal für alle: UNSER GEHIRN ARBEITET DIGITAL. BEI DER SIGNALÜBERTRAGUNG GIBT ES GENAU 2 ZUSTÄNDE, AUS UND AN, 0 UND 1.
also kann man auch von bits sprechen, und ich habe nie behauptet dass ein bit von unserm gehirn einem bit von einem computer entspricht.
unendlich is unser speicher mit sicherheit nicht, aber er lässt sich halt nicht einfach mit dem speicher eins computers vergleichen. wenn leute ihr leben im zeitraffer sehen, heißt das nicht, dass sie ihr ganzes leben als film abgespeichert haben, den sie jetz angucken; ein bisschen komplizierter is es dann doch ;)
auf jeden fall können wir nur eine begrenzte anzahl von informationen speichern.
die zahlen sin ja auch keine genauen angaben, aber die größenordnung wird schon so ungefähr stimmen.
an die fraktion mit den analogen hirnen: wie sollte das denn bitte funktionien?
gisbern
2005-01-04, 14:53:50
Wenn ich ein Auge zu mache, habe ich trotzdem keinen schwarzen Fleck in meinem Sichtfeld. Also wird das Gehirn durchaus die fehlenden Informationen quasi interpolieren.
da wird nix interpoliert, der bereich wird einfach nicht
wahrgenommen, und dadurch siehst du ihn auch nicht (-: aber wenn man an die bestimmte stelle, wenn man nur durch ein auge blickt, einen punkt hält sieht man ihn wirklich nicht.
Klar, alles digital.
Ich bin die 1 und ihr seid die Nullen.
:D
Also bitte, nur weil der Gatsch in unseren Köpfen mit elektrischen Impulsen arbeitet, ist das noch nicht alles digital.
Der war gut! :D
Irgendwo habe ich gelesen das die Anzahl von Hirnzellen in etwa gleich bleibt.
Also der Mensch baut im laufe seines Lebens immer mehr Verknüpfungen auf, sprich Pipelines. Dadurch soll auch das Leistungsvermögen abhängen.
Wenn man richtig gefördert wird baut man mehr Verknüpfungen (Leiterbahnen) auf.
Wenn man älter wird ist es schwieriger Leiterbahnen aufzubauen, aber wenn man lernt baut man welche auf.
Natürlich ist auch die Software entscheidend, zB. diese Rechenkünstler die, die 100ste Wurzel aus einer weiß ich nicht wie großen Zahl ziehen.
Deren Gehirn kann gar nicht Millionenfach leistungsfähiger sein als das eines normalen Menschen, aber die Software die der oder die draufhat würde ich mir gerne mal saugen.
Ich würde sogar für den download bezahlen, dann braucht man keinen Taschenrechner mehr. ;)
und noch was, klar arbeitet unser Gehirn digital.
Und es arbeitet mit elektrischen Impulsen, sprich Strom!
Tigerchen
2005-01-04, 16:35:20
Was soll ein elektrischer Impuls denn anderes übertragen, außer AN/AUS ???
-> also digital
Nur An/Aus?
Mit Elektrizität kann man noch viel mehr machen.
Tigerchen
2005-01-04, 16:40:43
Falsch, digital bedeutet, dass es eine endliche Anzahl an Zuständen gibt.
Wenn es einem wichtig ist, dass es genau zwei sind, spricht man von binär.
Einige scheinen sich ja ziemlich viel auf ihr Hirn einzubilden, aber nach derzeitigem Stand der Forschung scheint ein Hirn nix zu können, was ein ausreichend schneller Computer nicht auch könnte. Das ist übrigens die große Hypothese der Intellektik, Sachen wie Kreativität sieht man folglich als reines Softwareproblem.
Sowas wurde schon in den 50ern behauptet zusammen mit dem baldigen Durchbruch in der KI-Forschung. Auf den Durchbruch warte ich heute noch. Ein intelligenter Karl Klammer für Windows. Das wär doch mals was!;D
Tigerchen
2005-01-04, 16:43:54
und noch was, klar arbeitet unser Gehirn digital.
Und es arbeitet mit elektrischen Impulsen, sprich Strom!
Belege doch mal das das Gehirn digital arbeitet.
Es arbeitet übrigens nicht nur mit Strom. In jede bewußte oder unbewußte Entscheidung spielt auch noch ein biochemischer Cocktail aller möglicher Hormone mit rein. In diesem Thread ist wohl ein Haufen Testosteron mit im Spiel.:cool:
die diskussion ist sinnlos, da:
a: so gut wie keiner hier ahnung von der materie hat, bzw. mediziner ist
b: selbst der guru mediziner darauf keine brauchbare antwort findet.
und c:
über 90% wird hier nur stuss geschrieben; digitale, bites und bytes usw.
würde das gehirn wie ein computer funktionieren, denn könnten wir das gehirn ja einfach nach unseren belieben aus- und anschalten... was wohl nicht der fall ist...
außerdem ist die natur immer noch viel schlauer wie wir und würde sowas banales wie ala computer sowie so nicht entwickeln.
und zu den schlau meiern (pc freaks) die meinen das gehirn kann nur so viel wie ihr computer neben ihnen kann, kann ich nur zu ihrem unterentwickelten gehirn bemitleiden, dies würde ja bedeuten, dass:
a: sie nicht lehrnfähig sind, trifft ja so wohl auf einige menschen zu.
b: kein eigenes bewusstsein haben, ja solche unselbstständigen menschen gibt es tatsächlich, die ohne einen befehlsgeber nichts zustande bringen.
mein gehirn kann aber deutlich mehr wie mein computer neben mir:
- ich bin lernfähig
- ich kann selbstständig handeln
um nur mal die wichtigsten dinge zu nennen...
der computer ist ebend so dumm wie brot...
gisbern
2005-01-04, 18:39:39
das mit dem selbstständig handeln ist indes auch noch mal eine eigene Diskussion wert (-: belese sich mal ein wenig mit Neurophysiologie, und dann such Threads zur * Lüge der freien Meinung*. Bezieht sich darauf, daß unsere Nervenzellen auf ein bestimmtes sensorisches Ereignis immer gleich reagieren. Wenn man nun einfach davon ausgeht, daß der Mensch durch seine Augen, Tastorgane,Hören,Riechen, etc. MIlliarden von Sensoren hat, ist einfach die Anzahl der möglichen Ergebnisse so hoch, das man das den freien willen . Die Variabilität wird dabei natürklich extrem erhöht, weil das Hirn aus jeder gemeisterten Situation lernt, also in echt doch nie gleich auf sensorische Einflüsse reagiert. Ist aber auch nur eine These, wenngleichj aber auch sehr interessant.
fakt ist: entweder es wird ein aktionspotential ausgelöst (--> "1") oder nicht (--> "0"), es gibt keine besonders großen oder besonders kleinen APos, entweder es gibt eins oder es gibt keins. die stärke der reizes hängt von der zahl der APos ab, nicht von deren höhe (wüsste jetz auch nich dass es da großartige unterschiede gibt bei der höhe?)
und so kommunizieren die nervenzellen halt nunmal untereinander, und das is halt nunmal digital, und damit sage ich nicht dass unser gehirn wie ein computer funktioniert; zu den bits (keine bytes!) s.o.
anddill
2005-01-04, 19:06:46
fakt ist: entweder es wird ein aktionspotential ausgelöst (--> "1") oder nicht (--> "0"), es gibt keine besonders großen oder besonders kleinen APos, entweder es gibt eins oder es gibt keins. die stärke der reizes hängt von der zahl der APos ab, nicht von deren höhe (wüsste jetz auch nich dass es da großartige unterschiede gibt bei der höhe?)
und so kommunizieren die nervenzellen halt nunmal untereinander, und das is halt nunmal digital, und damit sage ich nicht dass unser gehirn wie ein computer funktioniert; zu den bits (keine bytes!) s.o.
Nein, das ist eben nicht der Fall. Wenn schon ein Vergleich mit der Elektronik herhalten muß, dann entspricht die Funktion der Hirnzellen eher einer Pulsweitenregelung. Und dadurch ist die Verarbeitung dann doch wieder analog, da es auf die Häufigkeit der Pulse ankommt. Also nix mit Digital.
Außerdem kann man das Gehirn nicht in Regionen für Denken, Erinnerung etc trennen. Am ehesten entspricht es einem Kaffeefilter. Man gießt oben Informationen rein, die laufen durch das Sieb der Erinnerungen, Instinkte und Gefühle, und unten kommt dann als Ergebnis ein Gedanke oder eine Handlungsweise raus.
san.salvador
2005-01-04, 21:28:31
Funktioniert nicht z.B. analoge Audioweiterleitung auch mit elektrischen Impulsen? Und wenn dsa keine elektrischen Impulse sind - was dann?
Duracellhäschen
2005-01-05, 00:22:26
Also was manche hier schreiben wird ja echt abenteuerlich. 1. zu der Einteilung des Gehirns: Man das Gehrin sehr wohl einteilen, nur keine ganz klar definierten Grenzen ziehen. Es gibt ein Gorß- bzw. Kleinhirn, Mittelhirn usw. Man bei Gehirnenströmen messen das gewisse Gebiete für gewisse Dinge zuständig sind, das ist auch wissenschaftlich belegt. Undz u den APs Elzar, du gehst immer nur von den Aktionspotentialen aus, das ist aber nur die Datenweiterleitung, nicht die Datenverbeitung. Sonst könnte jede benachbarte Nervenzelle ein Reaktion zurückgeben! Und wie sollten deiner Meinung nach dies andere Bits sein wie am PC. Wenn ich mich nicht irre ist ein Bit entweder 1 oder 0, wenn mans ganz grob betrachtet könnte man dies wie das Alles oder Nichts Prinzip der NZs sehen, das heisst Aktionspotential oder Ruhepotential, also widerspricht sich deine Theorie schon in sich. Doch die Frequenz dieser kann sich stark unterscheiden und du beachtest nicht wie schon oben genannte biochemische Prozesse die das Gehirn beeinflussen. Und durch Zahlen kann man die Leistung heutzutage noch nicht beschreiben, das ist wie mit Mhz...das sagt doch auch nichts über die Leistung aus. Sowieso bräuchten wir ein Referenzgehirn! Jedes Gehrin arbeitet unterschiedlich, je nach Begabung, Förderung und genetischer Veranlagung. Man kanns nich so einfach vergleichen. Nur weil du in deinem BioLk mal ein Flugblatt darüber bekommen hast kannste doch nicht denken den stei nder Weisen entdecjt zu haben. Wenn es diese daten so gibt, gib doch mal die Quelle an Elzar! Ich habe dies noch nie gelesen und medizinstudenten kennen es auch nicht, also bitte stütz deine Theorie nicht auf diesen Pseudofakten.
WarSlash
2005-01-05, 02:33:30
Was mich interessiert ist, wie speichert das Gehirn die Informationen chemisch? Das spielen ja sicherlich Moleküle und bestimmte biochemische Stoffe eine sehr große Rolle. "Speichert" das Gehirn die Informationen nur durch unterschiedliche Anordnungen ab?
Weil so könnte man im übertragenen Sinne den Menschen mit dem Computer ansatzweise vergleichen. Das wäre eine Art von Informationsspeicherung.
PC -> speichert nur durch 1 und 0 Daten
(Ich habe keine Ahnung von sowas, aber ich stelle mir das so in etwa vor)
Theorie: etwa vor!
Mensch -> Anordnung von Molekülen, Zusammensetzung von Aminosäueren und Proteinen.
Aachenmade
2005-01-05, 03:42:07
Das INteressante am Auge ist, dass man in der MItte ja gar keine Sehzellen hat (genau die Stelle wo alle Sehnerven zu einem Bündel zusammengeführt werden). Trotzdem fehlen uns keien Bildinformationen, z.B. nen kleiner schwarzer Punkt in der MItte. Also wird der Rest "errechnet". Das sollte mal ein Computer schaffen :)
Die fehlen schon... nur nimmst du es nicht wahr, weil sich das Gehirn dran "gewöhnt" hat. Die Lücke taucht halt gar nicht in deiner bewußten wahrnehmung auf, sondern wird wegefiltert. Da gibts nen schönen Test mit dem man den blinden Fleck bewußt machen kann. Haben wir mal in der Schule (lang lang ists her :rolleyes:) gemacht.
Bye
Aachenmade
Edit: Ups hätte mal weiterlesen sollen... sorry...
gisbern
2005-01-05, 06:34:02
hmm, sich die art der informationsspeicherung klar zu machen ist nicht sonderlich einfach. Es gibt sowohl räumliche Muster von Informationsverarbeitung/SPeicherung, dann auch zeitliche Muster, und diese sind wiederum von der biochemie abhängig. Und die Biochemie ihrerseits ist wieder so unglaublich komplex und variationsreich.....das alles zusammen ergibt dann z.b. eine Erinnerung. Ich beschäftige mich ja ziemlich viel mit solch themen, aber es ist für mich immer noch ungreifbar wie das alles zusammen funktioniert.
P.S. mit *Mustern* mein ich wie ein komplexes Netzwerk von Neuronen zusammen feuert. D.h. ein räumliches Muster ist eine bestimmte 3D Struktur von Neuronen, die z.B. wenn ich an einen Baum denke feuern. Ein zeitliches Muster ist die Geschwindigkeit in diesem Netzwerk.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.