|
Plauderecke Alles, was garantiert nichts mit Physik zu tun hat. Seid nett zueinander! |
|
Themen-Optionen | Ansicht |
#1
|
||||
|
||||
Searle's chinesischen Zimmer und Neuronale Netzwerke
John Searles Argument des chinesischen Zimmers wurde 1980 als eine Kritik an der Vorstellung von starken KI (Künstlicher Intelligenz) vorgestellt, die besagt, dass Maschinen tatsächlich Bewusstsein oder Verstehen entwickeln können. Das chinesische Zimmer ist ein Gedankenexperiment, das Folgendes beschreibt:
Das Gedankenexperiment: Stellen Sie sich vor, eine Person, die kein Chinesisch versteht, sitzt in einem Raum. Diese Person hat ein Regelbuch, das ihr genau sagt, wie sie chinesische Schriftzeichen (Input) in andere chinesische Schriftzeichen (Output) umwandeln kann.Außenstehende, die die Eingaben und Ausgaben beobachten, könnten den Eindruck gewinnen, dass die Person im Raum Chinesisch versteht, obwohl sie tatsächlich nur syntaktische Regeln befolgt und die Bedeutung (Semantik) der Zeichen nicht kennt.Searle argumentiert, dass dies zeigt, dass das Verstehen nicht allein durch das Ausführen von Algorithmen erreicht werden kann. 1980 war von erfolgreichen KNN's wie ChatGPT noch keine Spur. Die Vorstellung war die sequenzielle Abarbeitung eines starren Algorithmuses auf Basis einer starren Datenbank. So wird, meine ich, nichts mit Bewusstsein! Wissen und Algorithmus sind voneinander getrennt und nicht flexibel. Jetzt stellen wir uns das "Chinesische Zimmer" als KNN (künstliches Neuronales Netzwerk) vor. Es wird mit einem untrainierten KNN begonnen. Die Gewichtungen der Verbindungen zwischen den Neuronen sind zufällig eingestellt. Das KNN wird jetzt mit chinesischen Sätzen und den chinesischen Antworten trainiert. Am Schluss kann das KNN die Anforderungen an das "Chinesische Zimmer" erfüllen. Die einzelnen Neuronen verstehen weder die chinesische Sprache noch die Antworten auf die Fragen. Das System, Summe aller Neuronen und deren gewichteten Verbindungen, zeigt aber ein intelligentes Verhalten, eine neue emergente Eigenschaft, die den einzelnen Neuronen fehlt. Wir sind nicht in der Lage aufgrund der Gewichtungen auf die gespeicherte Information im KNN zu schließen, da die Gewichtungen von den einzelnen gelernten Wissensbruchstücken überlagert sind. So wie wir nicht auf die Information schließen können, sind wir auch nicht in der Lage zu entscheiden, ob dieses System Bewusstsein besitzt. Es ist und bleibt für uns eine Blackbox. Man hat festgestellt, dass KNN's halluzinieren, lügen und täuschen können. Echte menschliche Eigenschaften, oder? Wie denkt ihr darüber?
__________________
It seems that perfection is attained not when there is nothing more to add, but when there is nothing more to remove — Antoine de Saint Exupéry Ge?ndert von Geku (23.05.24 um 22:05 Uhr) |
Lesezeichen |
|
|