pte20070411035 Medien/Kommunikation, Produkte/Innovationen

Sehprothesen: Künstliche Netzhaut scheitert an "Dialekten"

Verbesserte Signalübersetzung soll Erkennen von Umrissen ermöglichen


Sehprothesen kranken an Übersetzungsfehlern (Foto: uni-bonn.de)
Sehprothesen kranken an Übersetzungsfehlern (Foto: uni-bonn.de)

Bonn (pte035/11.04.2007/13:49) Bonner Forscher haben eine Software entwickelt, mit der künstliche Sehprothesen die zum Gehirn gesendeten Signale verbessern können. Damit erwarten sich die Wissenschaftler einen wichtigen Fortschritt in der Sehprothesen-Forschung, die in den vergangenen Jahren mit zum Teil ernüchternden Testergebnissen zu kämpfen hatte. Ausgangspunkt der Forschung ist die Idee, dass in die geschädigte Netzhaut von Blinden Elektroden implantiert werden und daran eine Minikamera angeschlossen wird. Die elektrischen Reizkontakte speisen die Kamera-Signale in den Sehnerv ein. Die Informationen werden von der an einer Brille befestigten Kamera drahtlos an die künstliche Netzhaut übertragen.

Die Ergebnisse bei den bisherigen Testpersonen erfüllten bislang aber nicht die hochgesteckten Erwartungen. "Das Grundproblem ist, dass die Kamera elektrische Impulse liefert, mit denen das Gehirn kaum etwas anfangen kann", erklärt Rolf Eckmiller, Professor am Institut für Informatik der Universität Bonn http://www.nero.uni-bonn.de . "Unser Verfahren übersetzt die Kamerasignale in eine Sprache, die das Sehzentrum versteht." Dass das Sehzentrum jedes Menschen aber einen anderen Dialekt spreche, erschwere die Dolmetscher-Leistung aber erheblich, so Eckmiller. Aus diesem Grund hat der Neuroinformatiker und Mediziner nun zusammen mit zwei Doktoranden einen speziellen Retina-Encoder entwickelt. Mit diesem soll die Sehprothese lernen, genau die Signale zu liefern, die das Gehirn erwartet und interpretieren kann.

"Der Retina Encoder ist im Prinzip ein Computerprogramm, das die Signale der Kamera umwandelt und an das Netzhaut-Implantat weiter gibt", erläutert Projektmitarbeiter Oliver Baruth die Funktionsweise. "In einem kontinuierlichen Prozess lernt der Encoder, wie er das Kamerasignal verändern muss, damit der jeweilige Patient das Bild erkennen kann." Die Erprobung des Lern-Dialoges erfolgt gegenwärtig mit normalsichtigen Probanden. Die Kamerabilder werden dabei vom Retina Encoder übersetzt und dann an eine Art virtuelles Sehzentrum weitergegeben. Dort wird simuliert, wie das Gehirn die umgewandelten Kameradaten interpretieren würde.

Um die Sprache des Sehzentrums herauszufinden, übersetzt die Software das Ausgangsbild in verschiedene zufällig gewählte "Dialekte". Dabei entstehen Bildvarianten, die der Versuchsperson auf einem im Brillengestell integrierten Bildschirm präsentiert werden. Per Kopfbewegung wählt diese dann die Versionen aus, die dem Originalbild am ähnlichsten sehen. Die lernfähige Software zieht daraus Rückschlüsse, wie sie die Übersetzung verbessern muss.

Auch wenn die bisher durchgeführten Testergebnisse sehr viel versprechend verlaufen sind, warnt Eckmiller vor allzu hochgesteckten Erwartungen: "Niemand soll denken, er könne mit einer Sehprothese wieder seine Lieblingskrimis lesen. Er kann vielleicht die Gestalt grösserer Objekte erkennen und schemenhaft wahrnehmen, mehr ist auf absehbare Zeit aber nicht drin." Für einen Blinden bedeute das aber schon einen riesigen Fortschritt. Durch die schemenhafte Wahrnehmung würden sich blinde Menschen wieder besser in ihrer Umgebung orientieren können. "Dieser Gewinn an Eigenständigkeit ist unser Ziel", so Eckmiller.

Die lernende Sehprothese wird vom 16. bis 20. April auf der Hannover-Messe http://www.hannovermesse.de am Gemeinschaftsstand der Wissenschaftsregion Bonn der Öffentlichkeit präsentiert.

(Ende)
Aussender: pressetext.deutschland
Ansprechpartner: Martin Stepanek
Tel.: +43-1-81140-308
E-Mail: stepanek@pressetext.com
|