Fraunhofer-Forscher*innen haben gemeinsam mit Projektpartnern gezeigt, dass die Steuerung von Handprothesen mit Hilfe von Ultraschallsensoren deutlich verbessert werden kann. Menschen, die beispielsweise infolge eines Unfalls eine Hand verloren haben, könnten damit einzelne Finger der Prothese noch besser ansteuern und noch präziser bewegen als dies bisher in der myoelektrischen Prothetik – so der Fachausdruck – möglich war. Die myoelektrische Prothetik arbeitet meist mit Elektroden auf der Haut, die die elektrischen Signale von Muskelkontraktionen aufnehmen und an ein Elektronikmodul weiterleiten, das wiederum die Prothese ansteuert.
Die Wissenschaftler*innen des Fraunhofer-Instituts für Biomedizinische Technik IBMT, im saarländischen Sulzbach setzen im Projekt "SOMA" (Ultrasound peripheral interface and in-vitro model of human somatosensory system and muscles for motor decoding and restoration of somatic sensations in amputees) auf einen neuen Ansatz. Sie nutzen Ultraschallsensoren, die laufend Schallimpulse ins Muskelgewebe des Unterarms schicken. Anders als elektrische Impulse werden Schallwellen vom Gewebe reflektiert. Die Laufzeiten der reflektierten Signale liefern Informationen über die räumliche Tiefe des Muskelstrangs, der die jeweilige Schallwelle zurückspielt.
Auf diese Weise lassen sich die durch Nervenstimuli des Gehirns ausgelösten Kontraktionen im Muskelgewebe sehr detailliert beobachten. Dies wiederum ermöglicht die Erkennung typischer Aktivierungsmuster im Muskel, die für eine bestimmte Bewegung der Hand oder eines Fingers stehen. Das Projektziel ist, dass eine KI-gesteuerte Software in einer kompakten Elektronikbox, die Patient*innen am Körper trägt, diese Erkennung übernimmt. Die Elektronik könnte die decodierten Signale als Befehl an die Aktoren in der Handprothese senden und damit die Bewegung der Prothesen-Finger auslösen. Das Detektieren, Auswerten und Aussenden von Steuerbefehlen geschieht dabei in Echtzeit.
Das grundlagenorientierte EU-Projekt ist derzeit noch in der Laborphase. Ultraschallwandler und Elektronik erzeugen die Signale und lesen die zurückgespielten Schallwellen aus. Diese Daten werden dann an einen PC weitergegeben, in dem die KI die Analyse startet. Anschließend schickt die Elektronik die decodierten Signale als Befehl an die Aktoren in der Prothesenhand und löst damit die Fingerbewegungen aus. Die Vorteile der Technologie sind aber schon deutlich sichtbar. "Die Ultraschall-basierte Steuerung agiert wesentlich feinfühliger und präziser als dies mit Elektroden möglich wäre. Die Sensoren sind in der Lage, verschiedene Freiheitsgrade wie Beugen, Strecken oder Drehen zu erkennen", sagt Dr. Marc Fournelle, am Fraunhofer IBMT zuständig für die Leitung der Gruppe "Sensoren & Aktoren" und im Projekt für die Entwicklung der SOMA-Ultraschallsensorik.
Laufzeitunterschiede zeigen Tiefe und Ortsinformationen an
Um die hohe Präzision und Zuverlässigkeit zu erreichen, schicken die piezoelektrischen Schallwandler Dutzende Male pro Sekunde ihre Impulse mit einer Frequenz zwischen 1 und 4 MHz in das Muskelgewebe. Zudem sind mindestens 20 Sensoren zusammengeschaltet. Jeder Sensor liefert neben den Tiefeninformationen auch Daten über die Position des Muskelstrangs, der gerade eine Welle zurückgespielt hat. Bevor die KI ans Werk geht, werden die gesammelten Daten zu Ort und Tiefe der Signale vorsortiert. "Die KI muss sich dann um die Analyse der Ultraschallsignale kümmern, die Aktivierungsmuster identifizieren, in einen Steuerbefehl umwandeln und an den entsprechenden Finger der Prothese schicken. Technisch gesehen wertet die KI dabei Amplitude und Zeitverlauf der elektrischen Spannungen aus, die jedes Sensormodul liefert", erklärt Fournelle.
Die Sensoren sind in ein Armband integriert, das später im Schaft der Handprothese sitzen könnte. Für die korrekte Verknüpfung der Muskelsignale mit dem entsprechenden Finger und der gewünschten Bewegung muss der Mensch ein kurzes Training absolvieren, bei dem er versucht, Teile der Hand und Finger zu bewegen. Die daraus generierten Aktivitätsmuster werden als Referenz im System hinterlegt. Daraus lässt sich die Verknüpfung mit dem Finger oder Teil der Hand und der gewünschten Bewegung herstellen. Das Training dauert nur wenige Minuten. Andreas Schneider-Ickert, Projektleiter Aktive Implantate und Innovationsmanager am Fraunhofer IBMT, sagt: "Versuche mit Proband*innen haben gezeigt, dass die Technologie funktioniert. Sie ist sehr bedienfreundlich und nicht invasiv. Wir arbeiten jetzt daran, dass System noch unauffälliger zu machen."
Projektpartner aus 5 Ländern
Realisiert wurde die Technologie gemeinsam mit Projektpartnern. Im SOMA-Konsortium arbeiten insgesamt 7 Partner aus 5 Ländern zusammen. Die IBMT-Expert*innen bringen ihre jahrzehntelange Erfahrung in der Entwicklung von Sensoren und in Bereichen wie Neuroprothetik und Implantaten ein. Das Team hat die speziell angepassten Ultraschallwandler und die Elektronikbox entwickelt. Das Imperial College of Science Technology and Medicine in London hat in Zusammenarbeit mit den Fraunhofer-Forscher*innen die KI-Verfahren zur Erkennung von Bewegungsmustern entwickelt und erste Versuche an Proband*innen durchgeführt. "Außerdem kooperieren wir seit mehreren Jahren sehr eng mit der Università Campus Bio-Medico di Roma (UCBM), die das Gesamtprojekt SOMA koordiniert und mit der Idee für die Sensorik auf uns zugekommen ist", erklärt Schneider-Ickert.
Die Arbeit an SOMA geht nach dem Proof-of-Concept und den positiven Rückmeldungen der Proband*innen weiter. Im nächsten Schritt wollen die Forscher*innen die zeitliche Auflösung der Sensorik noch weiter steigern und die Elektronik verkleinern, um eine noch komfortablere und noch präzisere Steuerung der Prothese zu realisieren. Das Sensorarmband wird unsichtbar in der Manschette der Handprothese verschwinden. Im Sinne der verbesserten Alltagstauglichkeit ist es denkbar, dass die KI und die Steuersoftware in Zukunft in ein Smartphone integriert sind.