Nun kommen wir dem worum es mir geht einen Schritt näher, Tom.
Zitat:
Zitat von TomS
Gut, dazu habe ich tatsächlich eine Meinung. Die Aufgaben des Babys sind die o.g., in seiner Umgebung "zurecht zu kommen".
|
Genau. Machen wir's mal ganz einfach an zwei Beispielen fest.
Das Baby hat Hunger. Es schreit und wird gestillt. Der Hunger ist gestillt und es schreit nicht mehr. Der Input ist "Hunger" und der Sollwert ist "kein Hunger".
Das Baby stößt sich an einem spitzen Gegenstand und fühlt den Schmerz. Der Sollwert ist "kein Schmerz".
Es lernt durch den Abgleich von einem real gefühlten Wert mit einem Sollwert. Ich weiß, trivialer geht's kaum noch. Aber wir wollen ja den Vergleich zum NN ziehen.
Im letzten Absatz deiner Post hast du "die Aufgaben des Babys" allgemeiner und sehr treffend beschrieben.
Zitat:
Zitat von TomS
Die Funktionen a zerfallen ist zwei Klassen: - Berechnung des Outputs aus dem Input mittels der Paramater des Netzes, also y = o(x;p)
- Vergleich des berechneten Outputs mit den realen Daten, Berechnung der neuen Parameter, also p' = b(y,yr;p)
Die Funktion o() ist trivial, die "Intelligenz" steckt in den Paramatern, diese können sich ändern.
Die Funktion b() ist sehr kompliziert, die "Intelligenz" steckt in ihr selbst, sie hängt nicht von Paramatern ab und ist deswegen starr.
|
Ich habe mir erlaubt das, worauf ich seit einiger Zeit hinaus wollte, hervorzuheben. Ich sehe keine Klärung der Frage, welche "realen Daten" (Sollwerte, Ziele .. hier schlägt Semantik zu) man dem NN implementiert, um den Vergleich mit dem berechneten Output zu ermöglichen. Bei RNNs ist das nicht anders, nachzulesen bei Wikipedia.
Das steht "wobei l eine Funktion ist, welche die Ausgabe (Output) des Netzwerkens o_t (zum Zeitpunkt t) mit dem Ziel y_t vergleicht ..."
Welche Ziele y_t gibt man dem NN ein?
Sorry, deine gestrige Post von 17:28 habe ich übersehen, wie mir gerade auffällt. Ich komme darauf zurück.
Zitat:
Zitat von TomS
Damit funktioniert das Gehirn an dieser Stelle sicher anders als ein künstliches NN. Dies ist allerdings kein prinzipielles Problem, lediglich eines der Effizienz, zugeschnitten auf heutige Aufgaben der KI.
|
Ja, sofern man geeignete Lernziele hat, sodass über viele Lernprozessen hinweg Bewusstsein emergiert. Sind wir uns über Letzteres eigentlich noch einig? Welche Lernziele wären das? Am Baby können wir uns ja nicht orientieren.