Start Skripte Projekte Impressum  
Skripte   /   Psychologie   /   Allgemeine 1 Block II   /   Repräsentation von Wissen

3.4 Die Repräsentation von Wissen - Formate und Inhalte
Alle unsere Gedächnisinhalte werden im Gehirn repräsentiert, es gibt zwei Arten mentaler Repräsentation, einmal propositionale Repräsentation die als Vorbild die Sprache hat, und analoge Repräsentation die sich bildlicher Darstellungen bedienen.
propositionale Repräsentationen beruhen auf der Hypothese der Sprache der Gedanken.

3.4.1 Propositionale und analoge Repräsentationen
Bei analogen Repräsentationen, repräsentieren die einzelnen Elemente der Repräsnetation, je ein Objekt des zu repräsentierenden Gegenstandes.
Die visuelle Vorstellung eines Objektes aktiviert ähnliche Hirnareale wie die visuelle Wahrnehmung selbst.
Unsere Repräsentationen sind alle neuronal.
Analoge und propositionale Repräsentationen unterscheiden sich in dne Klassen von Informationen die sie enthalten z.B. bei analogen Repräsentationen metrische Informationen über die Objekte.
Die räumliche Lage eines Objektes einerseits, und die visuellen Eigenschaften andererseits werden in seperaten Teilen des Gehirns verarbeitet. Gut gelernte Muster z.B. Gesichter werden in spezialisierten Regionen im Kortetxt, mit besonderen (holistischen) Regeln verarbeitet. Selbst durchgeführt Handlungen werden besser erinnert als dieselbe, aber an einem anderen beobachtete, Handlung.

3.4.2.1 Grundprinzipien konnektionistischer Modelle
Konnetionistische Modelle, sind i.d.R. in Schichten organisierte Netzwerke die aus stark vereinfachten Nervenzellen und ihren Verbindungen untereinander bestehen.
Durch die Aktivierung einzelner abstrakter Neuronen nimmt die Inputschicht Informationen auf, über Verbindungen wird diese Information an die erste Zwischenschicht weitergeleitet. Die Neuronen der Inputschicht haben unterschiedlich starke (gewichtete) Verbindungen zur Zwischenschicht, die Stärke hängt davon ab wieviele Aktivierungen von einem zum anderen Neuron weitergeleitet werden. Die Verbindungsstärke kann kann sowohl positive (verstärkend) als auch negative (hemmend ~ inhibitorisch) Wirkung auf das Empfängerneuron besitzen.
In der Outputschicht werden die Ergebnisse der Informationsverarbeitung repräsentiert.
Die Verarbeitung selbst ist ein Zusammenspiel dreier Prozeße, dem Bottom-Up Prozeß, von der Input- zur Outputschicht, der Top-Down Prozeß, von der Out- zur Inputschicht, d.h. rückwirkung des Ergebnis auf die Eingaben , neben diesen zwei Interschichtprozeßen gibt es noch einen dritten Intraschichtprozeß, lateralle Effekte unter diesem hat man Effekte innerhalb einer Schicht zu verstehen.
Konnektionistische Modell haben zwei verschiedene Repräsentatione
Lokale: Es existiert eine eindeutige Zuordnung zwischen Neuron und der zu repräsentierenden Einheit
verteilt: Objekte werden durch ein Muster von Aktivierungen dargestellt
Die Aktivierungsmuster selbst repräsentieren nur die aktuell zu verarbeitende Information. In den unterschiedlichen Verbindungsstärken steckt das gelernte Wissen.

3.4.2.2 Lernen in konnektionistischen Netzen
Lernen in konnektionistischen Netzen kann auf zwei Arten erfolgen:
Lernen ohne Rückmeldung, oder Lernen mit Rückmeldung, in beiden Fällen führt das Lernen zur Anpassung der Verbindungsstärken bzw. der Verbindungsgewichte.
Lernen ohne Rückmeldung, wird auch Hebb'sches Lernen genannt, erfolgt dardurch, daß durch die gleichzeitige Aktivierung zweier (miteinander verbunden) Neuronen ihr Verbindungsgewicht um einen kleinen Betrag erhóht wird. Wird nur eines von beiden aktiviert verringert sich das Verbindungsgwicht um einen kleinen Betrag. Dies entspricht der Idee des assoziativen Lernens (= longterm potentiation LTP).
Das Lernen mit Rückmeldung vollzieht sich in zwei Phasen. In der ersten Phase geschieht die Verarbeitung des Inputs auf der Grundlage der gegeben Verbindungsstärke (gewichte). In der zweiten erhält das Netz den gewünschenten Output als Rückmeldung, die Differenz zwischen dem generierten und dem gewünschten Output bezeichnet man als Fehlersignal. Die Fehlerrückmeldung vollzieht sich Top-Down, wenn dass Fehlersignal lautet "zu klein", dann wird das Gewicht erhöht und umgekehrt.
Delta Regel : Dwik = (ak - zk) ·ai
Bei beiden Arten, erhält das Netz einen Teiol des ursprunglichen Aktivierungsmusters, und muß den fehlenden Teil ergäzen.
Prozedurales Wissen wird durch fehlerbasiertes Lernen erworben, auch das Erlernen von Paarassoziationen.

3.4.2.3 Generalisierung und Konzeptbildung
Verteilte Repräsentationen sind effektiver als lokale, bei ihnen überlappen sich ähnliche Inputs, da sie beim Lernen nicht nur zum Großteil dieselben Neuronen nutzen, sondern auch dieselben Verbindungsgewichte modifizieren.
In einer generalisierten Repräsentationen wird nicht mehr das einzelne Ereignis sondern ein Konzept repräsentiert.
Das Generalisieren geht zu Lasten der Erinnerung an eine einzelnes Ereignis, was zu einem fundamentalen Dilemma in neuronalen Netzwerken führt.

Kasten 3.6 Das Hippokampus-Kortex-Modell des Gedächnisses
Generalisierung ist nur mit verteilten Repräsentationen möglich, denn dann werden in ähnlichen Lernsituationen, dieselben Neuron aktiviert. Das "alte" erlernte wird durch das "neue" erlernte modifiziert.
Konnektionistische Netze unterligen bei verteilter Repräsentation der katastrophalen Interfernz, d.h. eine neue Episode löscht die komplete spezifische Erinnerung an die vorhergehende Episode aus.
Einzeln Erinnerungen lassen sich durch lokale Repräsentation besser realisieren, an dann ist keine Generalisierung möglich.
Die Ereignisse im Kortex werden durch sich hochgradig überlappende verteilte Repräsentationen dargestellt. Im Hippokampus werden dieselben Ereignisse dagegen viel stärker separiert, dies ist aber kein lokale Repräsentation, sondern eine sparsame verteilte Repräsentation.


Sascha Frank
Last modified: Sat Nov 12 16:20:25 MET 2005