Gehirn steuert Roboter

Forscher bei Signal-Decodierung erfolgreich

Mit der Kraft der Gedanken Querschnittgelähmten ein Stück Bewegungsfreiheit zurückgeben: Mithilfe von sogenannten Brain-Computer-Interfaces (BCI), die die Hirnaktivität ihrer Träger messen und die elektrischen Ströme, in Steuerungssignale umwandeln, soll das gelingen. Positive Ergebnisse hat Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der Technischen Universität Graz zu vermelden: Dort ist es erstmals gelungen, einen Roboterarm durch Gedanken zu steuern.

red/Agenturen

Patientinnen und Patienten mit schweren Rückenmarksverletzungen stehen vor einem gewaltigen Problem: Sie können u. a. ihre Hände und Arme nicht mehr bewegen. Im Fokus der Forschungen von Müller-Putz steht das Bemühen Querschnittgelähmten - also Personen, deren Rückenmark im Halsbereich verletzt wurde - mithilfe von Gehirn-Computer-Schnittstellen (BCI) wieder mehr Handlungsfähigkeit zu geben. Die Vision der BCI, wie sie in Graz vorangetrieben wird, basiert darauf, dass die bloße Vorstellung einer Bewegung bereits messbare Veränderungen der elektrischen Hirnaktivität auslöst, erzählte Gernot Müller-Putz. Er beschäftigt sich seit mehr als 20 Jahren mit der Kommunikation zwischen Hirn und Computer. Das Ganze soll mithilfe von bis zu 64 Elektroden, die die Hirnströme „von außen“ messen - und nicht mit Chips, die ins Hirn implantiert werden müssen - funktionieren, wie der Forscher gegenüber der APA erklärte.

Sein Team versucht in ausgeklügelten Experimenten entsprechende Hirnsignale über ein Elektroenzephalogramm (EEG) zu registrieren, zu verstärken, mit computergestützten Analysen auszuwerten und über Machine Learning in Steuersignale umzuwandeln. Damit sollen dann etwa ein Cursor am Computer bedient oder auch einen robotischer Arm - der für den Patienten Bewegungshandlungen ausführt - in Bewegung gesetzt werden. Die Grazer Gruppe hat mit dem nach fünf Jahren abgeschlossenen ERC-Consolidator Grant-Projekt „Feel your Reach“ wichtige Schritte bei der Entwicklung der Steuerung von u. a. Neuroprothesen gesetzt. „Es ist uns gelungen, aus den menschlichen Gehirnsignalen die Absicht einer kontinuierlichen Bewegung auszulesen. Und wir haben es geschafft, dass Personen durch die Kraft ihrer Gedanken einen Roboterarm in einer kontinuierlichen Wischbewegung herumfahren lassen können“, berichtete der Institutsleiter.

Im Zuge des mit rund zwei Millionen Euro dotierten Projektes hat die Gruppe rund 25 Publikationen herausgebracht. An die 350 Probandinnen und Probanden haben an den zugrunde liegenden Experimenten teilgenommen. „Bisher war die Steuerung der Bewegung unnatürlich und umständlich, weil dafür geeignete Denkmuster wiederholt imaginiert werden müssen. Wenn es reicht, die Bewegungsintention im EEG zu erfassen, sind wir schon ein schönes Stück weiter“, schilderte Müller-Putz das Bestreben. Das sei nach einer langen Reihe an Experimenten nunmehr gelungen.

Inzwischen haben die Forschenden mehrere BCI entwickelt

Die Testpersonen machten im Grazer Labor zuerst einfache Wischbewegungen mit der Hand. Ihre Hirnaktivität wurde aufgezeichnet und ausgewertet. Die Forschenden konnten daraus ein Modell erstellen, das die Kinematik der Bewegung mit dem EEG in Verbindung bringt: Sie suchten also in den Hirnsignalen nach Korrelaten für Bewegungsparameter wie jeweilige Position, Beschleunigung, Geschwindigkeit oder Abstand. In mehreren Zwischenschritten konnte die Bewegung aus den Gehirnsignalen des Echtzeit-EEG decodiert werden. Die abgeleiteten Signale dienen letztlich zur Steuerung des robotischen Arms.

Mittlerweile kann das Team die Bewegungs-Intention der Testperson aus dem EEG decodieren. Als essenziell stellte sich die Auge-Hand-Koordination dar: „Das heißt, dass die Benutzer mit ihren Augen die Bewegungsbahn des robotischen Arms verfolgen konnten. Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen“, berichtete der Grazer Teamleiter.

Inzwischen haben die Forschenden mehrere BCI entwickelt: Ein BCI kann erkennen, ob man mit einer Bewegung starten möchte, so Müller-Putz. Noch funktioniert die Decodierung der Signale nicht zu 100 Prozent: Ein weiteres BCI erkennt Fehler, also nicht erwünschte Bewegungen des Roboterarms: „Wenn die Person die falsche Bewegung sieht, können wir die Fehlerantwort des Gehirns aus dem EEG ablesen“, sagte der BCI-Experte. Das BCI stoppt die Bewegung des Roboterarms und korrigiert sie.

„Die Testpersonen können die Bewegung des Roboterarmes spüren“, freute sich Müller-Putz über einen weiteren Fortschritt. Möglich wird das durch Vibrationsgeber. Diese kleben am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Künftig sollen damit auch komplett Querschnittgelähmte Bewegungen nachempfinden können. „Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen“, erläuterte Müller-Putz. Allen voran möchten die Forschenden den Start einer Bewegung, das Dekodieren der Bewegungsbahn aus visuellen, intentionalen und bewegungsempfindenden Informationen weiter verbessern, dabei Fehler erkennen und diese BCI-Systeme in einem „Dreifach-BCI-System“ vereinen. Der nächste Schritt wäre ein gesamter Bewegungsablauf vom Ergreifen eines Objekts über die räumliche Bewegung bis zum Ablegen des Objekts.

Die Jahrestagung der Österreichischen Gesellschaft für Biomedizinische Technik ÖGBMT (30. 9. und 1.10 an der TU Graz) widmet dem Brain-Computer-Interfacing einen eigenen Schwerpunkt: https://oegbmt2021.tugraz.at/index.html). Ein ausführliches Porträt zu Müller Putz ist in APA-Science nachzulesen: https://science.apa.at/portrait/gedanken-machen-mobil

Banner_MoreGrasp_byMoreGrasp
Der Proband hält mithilfe einer Neuroprothese eine Dose hoch - diese Bewegung konnte er vorher nicht ausführen.
© MoreGrasp