Freitag, 27. Januar 2006

Visuelles Hören

cepstrum2 Cochlearimplantate (Hörgeräte, die direkt einzelne Nerven stimulieren) aktivieren nicht die ganze Bandbreite der Nervenzellen, sondern lediglich eine Handvoll, so daß nicht der gesamte Frequenzbereich abgedeckt wird, sondern lediglich einige Stellen desselben. Das Gehirn reorganisiert die Verarbeitung dieser Daten, bis der Patient anstatt schauderhaften Gekratzes irgendwann meint, die ursprünglichen Klänge und Geräusche seiner Umwelt wahrzunehmen.
Wenn man ein Spiegelprisma in seiner Brille trägt und solcherart wochenlang die Welt auf dem Kopf stehend betrachtet, re-organisiert sich die visuelle Wahrnehmung irgendwann, bis man den neuen Modus als normal empfindet.

Beide Beispiele deuten an, daß das Nervensystem plastisch genug ist, um sich auf recht dramatische Variationen des Inputs einzustellen. Aber ist es auch plastisch genug, eine Sinnesmodalität durch eine andere zu ersetzen? Bekanntlich meinen die Verkündiger sensomotorischer "Contingencies" (Kevin O'Regan/ Alva Noe), daß genau das möglich sei. Was unterscheidet dann aber grundsätzlich Sehen vom Hören?

Ludwig Carnap hat seinerzeit vorgeschlagen, daß es auf die Dimensionalität des Inputs ankommt: Sehen hätte beispielsweise fünf Dimensionen (Farbe³ und Ort²) und unterscheidet sich darin in der Struktur der Hör-Daten. Um Carnaps Argument zu generalisieren: die Sinnesmodalitäten unterscheiden sich in der statistischen Grundstruktur der mit ihnen übertragenen Muster.

Das Gehirn hat möglicherweise aber auch noch eine andere Möglichkeit, rauszubekommen, wie es die einkommenden Daten am Liebsten verarbeiten möchte: es kann einfach schauen, über welchen Stecker sie einströmen (Seenerv, Hörnerv usw.).

Welche Theorie ist nun richtig: kommt es nur auf die Datenstrukturen an, oder ist die Zuordnung zu vor-verdrahteten Leitungen wichtig? Man könnte das herausfinden, wenn man es schafft, visuelle Daten in den Hörnerv zu schicken, ohne daß sie dabei in ihrer Struktur reduziert werden, oder umgekehrt auditorische Daten restlos sichtbar zu machen. Im ersten Falle müßten die Patienten z.B. eine Symphonie, die sie sehen, als gehört empfinden, im letzteren klappt das keinesfalls.

Bisherige Experimente zielten meist darauf ab, den Tastsinn mit visuellen Daten zu belegen, z.B. wurde Blinden ein grobes Bild der Umgebung in den Rücken massiert. Diese lernten tatsächlich, die Daten visuell zu interpretieren. Sahen sie diese Bilder auch?

Ich möchte vorschlagen, auditorische Daten über ein permanent herumgetragenes Head-Up-Display in eine Ecke des Gesichtsfeldes zu legen, z.B. indem man sie als mehrfarbiges Spektrogramm ("Cepstrum") visualisiert. Das müßte problemlos klappen, weil auditorische Daten viel ärmer sind als visuelle. Wenn die Versuchsperson (die natürlich ihre Ohren sorgfältig verstopft oder ihr vorher benutzes Hörgerät ausschaltet) damit nach ein paar Wochen hören kann, dann haben wir etwas über Wahrnehmung gelernt und ganz nebenbei eine neue Klasse genialer Hörgeräte geschaffen.

Lebensfunktionen

Du bist nicht angemeldet.

Aktuelle Beiträge

Novel Dewasa | Cerita...
very interesting article and contain useful information....
novelhot - 28. Jan, 01:26
Very nice blog, it contains...
Very nice blog, it contains lot of informations. Articles...
Cerita Sex (Gast) - 13. Okt, 21:32
Kisah Sex Nyata | Cerita...
Cerita Dewasa, Cerita Sex, Cerita Mesum, Cerita Bokep,...
Cerita Dewasa (Gast) - 13. Okt, 21:28
Prediksi Togel | Bocoran...
Prediksi Togel Hari Ini | Keluaran Angka Jitu | Ramalan...
Togel Hari Ini (Gast) - 13. Okt, 21:23
Ich muss mich gaarder...
Ich muss mich gaarder anschließen in allem. tja... Die...
tzso (Gast) - 11. Aug, 15:14

Suche

 

Ping

Online seit 4237 Tagen
Zuletzt aktualisiert: 28. Jan, 01:26
iao