©tippapatt – stock.adobe.com

Nach einem Schlaganfall leiden laut der Deutschen Gesellschaft für Neurologie etwa 35% der Patientinnen und Patienten in der Akutphase und 20% in der chronischen Phase an den neurogen verursachten Sprach- und Sprechstörungen. Diese sogenannten Aphasien und Dysarthrophonien können isoliert oder auch in Kombination auftreten. Mithilfe hybrider und interaktiver teletherapeutischer Ansätze wird in „HiSSS“ ein softwarebasiertes Lernsystem entwickelt, das in der Präsenztherapie und in der Videotherapie genutzt werden kann. Außerdem können die Nutzerinnen und Nutzer es zum Eigentraining ohne Betreuung verwenden. „Das System ist mobil und flexibel und funktioniert auch ohne permanenten Kontakt zu einer Therapeutin oder einem Therapeuten. Dadurch können Patientinnen und Patienten selbstständig und durch integrierte Elemente der Gamification auf spielerische Art und Weise mehr trainieren, ohne Abbruch der Therapieinhalte oder Einschränkungen in der Qualität“, erklärt Klaus Kugelmann, Geschäftsführer der SpeechCare GmbH.

Neue Möglichkeiten für Betroffene

„Wir freuen uns, dass wir durch unseren hybriden Ansatz die Vorteile von Sprachtechnologien weiter in die therapeutische Anwendung bringen können“, berichtet Laura Tuschen, Leiterin der Gruppe Assistive Sprech- und Sprachanalyse am Institutsteil für Hör-, Sprach und Audiotechnologie HSA des Fraunhofer IDMT. „Dadurch ergeben sich ganz neue Möglichkeiten der Teilhabe und Kommunikation für Betroffene.“ Seit Anfang des Jahres wurde in den Heilmittel-Richtlinien der Weg für den Einsatz von videogestützter Therapie erleichtert, wovon sich das Konsortium einen weiteren Schub für die geplanten Technologien verspricht.

Wiedererwerb verbaler Kommunikation mittels maschinellem Lernen

Zusammen mit Kolleginnen und Kollegen der Gruppe „Automatische Spracherkennung“ des Fraunhofer IDMT unterstützt die Forschungsgruppe von Frau Tuschen das Projekt bei der Erfassung von Sprach- und Sprechdaten. Dabei werden Verfahren des maschinellen Lernens, der automatischen Spracherkennung und -bewertung sowie der optischen Mimik- und Gesichtsanalyse eingesetzt, um ein direktes und individuelles Feedback beim Training in der App zu ermöglichen. Die Zusammenarbeit der unterschiedlichen Forschungsfelder am Fraunhofer IDMT sowie innerhalb des Konsortiums spiegeln die Interdisziplinarität des Vorhabens wider. „HiSSS“ wird gefördert durch das Bundesministerium für Bildung und Forschung unter der Trägerschaft des VDI/VDE und läuft noch bis zum Jahr 2025.

Die Gruppe „Assistive Sprech- und Sprachanalyse“ um Laura Tuschen wurde im vergangenen Jahr gegründet und fokussiert sich auf die Entwicklung und Verwertung von digitalen Sprachverarbeitungstechnologien. Dazu forschen die Expertinnen und Experten an der automatischen Sprach-, Sprech- und Stimmbewertung mittels maschinellen Lernens und Computerlinguistik. Im Bereich der Gesundheitsforschung arbeitet das Fraunhofer IDMT eng mit der Universität Oldenburg zusammen. Bereits seit einigen Jahren forscht der Institutsteil HSA im Bereich „Connected Health“. Dabei steht bei allen Forschungs- und Entwicklungsaktivitäten im Gesundheitsbereich der flexible Einsatz von Gesundheitssystemen ohne klinische Infrastruktur im Vordergrund.

Quelle: Pressemitteilung des Fraunhofer-Instituts für Digitale Medientechnologie IDMT