Einzelnen Beitrag anzeigen
  #195  
Alt 20.01.22, 18:00
Benutzerbild von TomS
TomS TomS ist offline
Singularität
 
Registriert seit: 04.10.2014
Beitr?ge: 3.124
Standard AW: Abweichungen und Möglichkeiten in einem Multiversum?

Hi Timm,

ich habe den ursprünglichen Beitrag nochmal gelesen; da heißt es

Zitat:
Welche Aufgaben und Zielwerte?
Gut, dazu habe ich tatsächlich eine Meinung. Die Aufgaben des Babys sind die o.g., in seiner Umgebung "zurecht zu kommen". Dazu greift es auf seine "Firmware" zurück, also bereits im Gehirn verankerte unbewusste Verhaltensmuster wie z.B. Reflexe (ich bin kein Biologe, wahrscheinlich ist Weinen bei Hunger kein Reflex, aber ich denke, es wird klar, was ich meine). Die Zielwerte sind komplizierter. Hier liegt m.M.n. eine ebenfalls bereits in der Firmware verankerte Bewertungsfunktion vor, z.B. "Hitze => Schmerz".

Ich sehe dabei folgende Unterschiede zu den heute verwendeten neuronalen Netzen: Die Bewertungs- und Lernfunktionen des Gehirns (die ich natürlich nicht kenne) sind identisch implementiert wie alle anderen Funktionen; demgegenüber verwendet ein künstliches NN Bewertungs- und Lernfunktionen, die - rein aus Performancegründen - nicht in einem Unter-NN implementiert sind, sondern in separaten und herkömmlichen Unterfunktionen.

Schematisch für Input x, Output y und Parameter p des künstlichen NNs

Zitat:
Der Algorithmus eines NNs f auf dem Input x mit Output y lautet im wesentlichen (y,f’) = f(x). Genauer verwendet das NN einen großen Satz an Parametern p, d.h. f(x) = f(x,p). f ist dabei eine Ansammlung einfacher algebraischer Funktionen a. Man kann die erste Formel damit auch schreiben als (y,p’) = f(a; x,p). Diese Funktion wird je Durchlauf mit neuem Input angestoßen, die alten Parameter durch die neuen ersetzt, d.h. die Parameter werden erlernt. Der starre Algorithmus besteht in der Zusammenschaltung der Funktionen a.
Die Funktionen a zerfallen ist zwei Klassen:
  • Berechnung des Outputs aus dem Input mittels der Paramater des Netzes, also y = o(x;p)
  • Vergleich des berechneten Outputs mit den realen Daten, Berechnung der neuen Parameter, also p' = b(y,yr;p)

Die Funktion o() ist trivial, die "Intelligenz" steckt in den Paramatern, diese können sich ändern.
Die Funktion b() ist sehr kompliziert, die "Intelligenz" steckt in ihr selbst, sie hängt nicht von Paramatern ab und ist deswegen starr.

Letzteres ist im biologischen Gehirn natürlich anders. Zum einen sind keine anders gearteten Unterfunktionen vorhanden, es gibt ausschließlich Funktionen im NN selbst. Genau deswegen - zum anderen - ist sie nicht starr.

D.h. dass sich auch Lernstrategien und Bewertungsfunktionen durch Lernen ändern können. In die Bewertungsfunktionen fließen dabei nicht ausschließlich Sensordaten ein, sondern auch Daten aus anderen funktionalen Einheiten; das Gehirn simuliert weiteren Input für das Lernen - verabredete Ziele bei der Jagd, eigene Wunschvorstellungen etc. Bei höherwertigen Funktionen und insbs. Bewusstsein werden die Inputs der Sensorik zunehmend irrelevant, die der anderen Hirnregionen führend; auch die Veränderung der Lernstrategien werden zunehmend wichtiger.

Damit funktioniert das Gehirn an dieser Stelle sicher anders als ein künstliches NN. Dies ist allerdings kein prinzipielles Problem, lediglich eines der Effizienz, zugeschnitten auf heutige Aufgaben der KI. Die Architekturen von NNs werden ohnehin angepasst, mit genügend mächtiger HW könnte man auch dies umsetzen. Zudem ändert dies nichts an der prinzipiellen Fähigkeit des NNs, es ist ein Algorithmus, eine universelle Turingmaschine (d.h. dass das NN prinzipiell exakt die selben algorithmischen Fähigkeiten erreichen kann, jedoch evtl. mehr oder weniger effizient).

Output des NNs als Input zu verwenden ist das wesentliche Merkmal von Recurrent Neural Networks, im Gegensatz zu reinen Feedforward Neural Networks. Diese Eigenschaft hat man also bereits vom Gehirn übernommen, die der Lernfunktion auf Basis des NNs anstelle einer externen Subroutine jedoch nicht.

Zitat:
Welche Aufgaben und Zielwerte?
Die Aufgaben des Babys sind die o.g., in seiner Umgebung "zurecht zu kommen". Das umfasst jedoch nicht nur die reale externe Umgebung, sondern auch die simulierte Umgebung, also Vorstellungen etc.; und "zurecht kommen" bemisst sich nicht ausschließlich anhand des Abgleichs zwischen Sensorik und Aktorik wie "zielen - werfen - schauen - vorbei".
__________________
Niels Bohr brainwashed a whole generation of theorists into thinking that the job (interpreting quantum theory) was done 50 years ago.

Ge?ndert von TomS (21.01.22 um 05:42 Uhr)
Mit Zitat antworten