Spannende Zeiten für die Spracherkennung
Reportage vom 03.03.2020
HEALTH-IT
In Zeiten von Siri, Alexa und Co kann Spracherkennung mehr als nur Diktate verarbeiten. Auch in Gesundheitswesen und Altenpflege könnte sich bald eine neue Welt auftun.
Spracherkennung und Sprachsteuerung eröffnen neue Möglichkeiten in der Telemedizin und häuslichen Pflege.
Von Spracherkennung zu Sprachsteuerung, das ist die Trajektorie, auf der sich Sprachtechnologien in den nächsten Jahren auch im Gesundheitswesen voran bewegen – zumindest, wenn alles so kommt, wie es sich die Vordenker dieses Segments vorstellen. Zu den Versprechen, die übers spracherkannte Diktat hinausgehen, zählte Jill Gilbert, die Veranstalterin des Digital Health Summit im Rahmen der Consumer Electronics Show in Las Vegas, eine teilautomatische, ärztliche oder pflegerische Dokumentation, sprachbasierte Patientenaufklärung und Patienteninformation, Krankenzimmer, in denen sich Geräte, Betten und Co per Sprache steuern lassen sowie Homecare-Szenarien aller Art.
„Eindeutig befinden wir uns im Moment noch in einer Phase des Experimentierens und Pilotierens. Aber die Organisationen und Unternehmen, die die Pilotprojekte machen, sind über die Potenziale begeistert“, so Gilbert. Das zeigt auch eine aktuelle Studie der Analysten von Aging in Place unter dem Titel „Voice, health and wellbeing“, für die 21 Heilberufler und Leiter medizinischer Einrichtungen interviewt wurden und die im Vorfeld der CES veröffentlicht worden war.
Pfleger Alexa hilft bei der Wundversorgung
Aus der Sicht eines großen medizinischen Dienstleisters berichtete Sandhya Pruthi, Associate Medical Director mit Zuständigkeit für IT bei der Mayo Clinic in Rochester, über die dortigen Anstrengungen, die Spracherkennung weiter voranzutreiben. Die Mayo Clinic fokussiert dabei unter anderem auf das Thema Gesundheitsinformationen für Patienten und leistet sich ein redaktionelles Team, das in einem aufwändigen Verfahren gemeinsam mit Amazon patientengerechte Informationen zu über 8000 Symptomen zusammengetragen hat. Auf diesen Katalog können KI-gepowerte Spracherkennungs-Algorithmen, konkret die Algorithmen von Amazon Alexa, zugreifen.
Die qualitätsgesicherten Informationen können Alexa-Kunden in den USA über ihre Sprachbox abfragen. Zusätzlich werden in diesem Kontext jetzt spezifische, sprachgesteuerte Szenarien umgesetzt, die in ganz konkreten Versorgungssituationen unterstützen: „Wir haben beispielsweise in der Dermatologie Smart Speaker so ausgestattet, dass Patienten nach der Entlassung Unterstützung beim Wundmanagement bekommen“, so Pruthi. „Und in der Notaufnahme haben wir Smart Speaker installiert, die Patienten- und Angehörigenfragen zu unspezifischen Brustschmerzen beantworten.“
In Zukunft sollen die Patientengespräche noch stärker individualisiert und kontextualisiert werden, betonte Pruthi. Ziel sei es, dass sich das System an bereits stattgefundene Unterhaltungen erinnere, sodass Konversationen quasi an dem Punkt fortgesetzt werden können, an dem sie unterbrochen wurden. Noch nicht umgesetzt, aber ein Ziel für die Zukunft sind außerdem Tools, die aus einem laufenden Arzt-Patienten-Gespräch Informationen extrahieren, die dann in der elektronischen Patientenakte des Krankenhauses abgelegt werden können – ohne dass der Arzt oder die Ärztin sie selbst eintippen muss. „In dem Augenblick, wo wir mit persönlichen Patientendaten arbeiten, müssen wir uns aber auch über den Datenschutz stark Gedanken machen“, betonte Pruthi.
Sprachunterstützte Homecare-Szenarien
Eine andere Perspektive brachte in Las Vegas Stuart Patterson in die Diskussion, Gründer und CEO des Startups LifePod. Dieses Unternehmen konzentriert sich auf den Einsatz von Spracherkennung bei alten Menschen und Pflegebedürftigen in den eigenen vier Wänden. Hierzu sei es erforderlich, dass Spracherkennungssysteme „proaktiv“ agieren, statt dass sie, wie Alexa und Co derzeit, per Zuruf „aufgeweckt“ werden müssen.
Eine entsprechende Lösung pilotiert das Unternehmen im Moment in Kooperation mit einem großen Gesundheitsanbieter im US-Bundesstaat Massachusetts. Fünfzig chronisch kranke Seniorinnen und Senioren in Pflegeheimen werden mit LifePods ausgestattet, die von der jeweiligen Pflegeorganisation individuell eingestellt werden können. Die Boxen fragen beispielsweise aktiv nach, ob zu den jeweils festgelegten Zeiten die Tabletten eingenommen wurden oder erinnern an körperliche Bewegung.
Im Schnitt interagierten die Patienten neunmal am Tag mit dem System, so Patterson. 100 Prozent würden es weiterempfehlen, und ein Jahr nach Rollout sei es immer noch bei 96 Prozent der ursprünglichen User in Gebrauch, weiterhin in einer Frequenz von im Schnitt neunmal am Tag. In einem neuen Projekt in Kooperation mit einem Hausnotrufanbieter soll der Notfallbutton dieses Unternehmen jetzt um eine Sprachfunktion ergänzt werden. Damit können Menschen, die stürzen und den Knopf nicht mehr erreichen, auch per Sprache einen Notruf absetzen.
Philipp Grätzel von Grätz/ E-HEALTH.COM
Weitere Informationen:
Orlov LM. Aging in Place technology Watch. Studie “Voice, health and wellbeing 2020.”. Januar 2020. https://www.ageinplacetech.com/files/aip/Voice%20Health%20and%20Wellbeing%202020%20Final%20-%201-5-2020_0.pdf