Zum Hauptinhalt springen
Zurück

M

Magazine by UseTree
Andreas Lemke Mediaire
Gute Frage Lesezeit 4 min | 02.05.2019

KI-Trends im Medical-Bereich

Auf welchem Stand sind selbstlernende eHealth-Systeme? Welche Ziele haben sich die Pioniere dieser Technologie gesetzt? Sind sie in erreichbarer Nähe? Wie muss die Interaktion mit dem Nutzer, dem Arzt, gestaltet sein? Wir sprachen mit Dr. Andreas Lemke, Gründer des Berliner Startups mediaire. Dieses bietet Radiologen eine innovative, intelligente Auswertung von MRT-Daten.

by Usetree Redaktion

Was leistet Ihr Tool zum jetzigen Zeitpunkt?

Wir bieten Radiologen detaillierte KI-basierte Volumetrie, das ist ein räumliches Messverfahren. Genau genommen stellen wir hilfreiche Informationen für die ärztliche Diagnose bereit.

Welche Krankheiten kann man üblicherweise mit MRT-Aufnahmen des Gehirns diagnostizieren?

Wir konzentrieren uns zunächst auf Demenzen und Multiple Sklerose, beides Erkrankungen, bei denen Volumen-Veränderungen typisch sind.

Kann Ihr Tool automatisch MRT-Bilder auswerten, Auffälligkeiten erkennen?

Die dokumentierten Volumina stehen in Bezug zu Geschlecht, Alter, Kopfumfang und anderen individuellen Patienten-Faktoren. Um diese Faktoren angemessen zu berücksichtigen, braucht es Machine Learning bzw. selbstlernende Algorithmen – das Herzstück von Künstlicher Intelligenz. Indem wir einen Algorithmus mit Datensätzen aus MRT-Aufnahmen informieren, lernt das System, die gemessenen Volumina mit entsprechenden Normalkollektiven zu vergleichen und zu bewerten. Im Laufe der Zeit, mit wachsenden Datensätzen, werden die Ergebnisse immer noch präziser und aussagekräftiger.

Was genau bekommt der Radiologe als Ergebnis in die Hand?

Schon wenige Minuten nach der Untersuchung mit dem Tomographen erhält der Radiologe einen knappen Bericht, der auffällige – d.h. vom Normal abweichende, genauer zu betrachtende – Stellen aufzeigt. Eine tabellarische und eine grafische Ansicht geben Auskunft über die Größe und Lage der detektierten Regionen.

Was planen Sie für die Zukunft und wie wird die Arbeit des Arztes sich in der Interaktion mit dem intelligenten System verändern?

Wir werden unser Programm über die Quantifizierung von Hirnatrophien hinaus weiterentwickeln und es befähigen, dem Arzt Diagnosen vorzuschlagen. Dies ist sehr gut machbar für neurodegenerative Erkrankungen wie Morbus Alzheimer oder Multiple Sklerose. An diesem Ziel arbeiten wir gerade und wir halten es für realistisch, es 2020 erreicht zu haben. Den Ärzten wird auf diese Weise viel Routinearbeit abgenommen werden. Sie sparen Zeit und können sich auf Tätigkeiten konzentrieren, die ihr Fachwissen, ihre Erfahrung, wirklich erfordern.

Was waren die Aufgaben des UX-Designs in der aktuellen Version Ihrer Anwendung? Wo sehen Sie Bedarf an UX in Ihren zukünftigen Produkten?

In unserer aktuellen Anwendung sorgt UX dafür, dass die Repräsentationen der vielen komplexen Informationen gut visualisiert sind: übersichtlich, nützlich und übrigens auch schön … Denn der Radiologe ist ein visueller Mensch – Bilder genau anzusehen, macht einen Großteil seiner Arbeit aus.

Was erwarten Sie für die Weiterentwicklung Ihrer Software von UX-Seite?

Wir brauchen die Methoden-Palette der User Experience, um über eine angenehme Bedienung hinaus auch die korrekte Bedienung zu garantieren. Denn wenn in der Radiologie ein Bild falsch interpretiert wird, kann es zu einer falschen Diagnose und schlimmstenfalls zu einer falschen Behandlung führen. Wir halten uns während der Entwicklung penibel an die Vorgaben der Usability-Norm (IEC 62366-1: 2015), die eine Usability in Bezug auf Sicherheit des User Interface garantieren soll. Darin werden zum Beispiel summative und heuristische Evaluationen gefordert, die nun mal von UX-Experten durchgeführt werden müssen – deren klassische Aufgabe die Analyse und Optimierung der Interaktionen zwischen Mensch und Maschine ist.

Sie sprachen davon, dass Sie Ihr Programm durch Künstliche Intelligenz dazu befähigen werden, Diagnosen vorzuschlagen. Welche Rolle wird UX hierfür spielen?

Im Moment ist das Ergebnis unserer Anwendung ein Report, ein Output. In der nächsten Entwicklungsstufe werden aber immer mehr Interaktionen des Radiologen mit dem lernenden System stattfinden. Die Diagnose-Vorschläge des Systems, wie etwa einer Frontotemporalen Demenz, werden dem Arzt natürlich nicht als Black Box angeboten.

… Black Box hieße: der Arzt wüsste nicht, auf welchem Weg das System zu seiner Folgerung gekommen ist?

Genau. Stattdessen bietet das System dem Arzt seine Herleitung an. Die soll auf verschiedenen Ebenen, Tiefen, Granularitäten nachvollziehbar sein.

… damit der Arzt mit seiner Erfahrung und seinem Wissen prüfen kann, ob oder wie weit er bei der Entscheidung mitgeht?

Genau. Und hier kommt es zur Interaktion mit dem System, die wir nach UX- bzw. DIN-Norm-Gesichtspunkten gestalten: Der Radiologe kann einzelne Vor-Entscheidungen, die zu dem gesamten Diagnose-Vorschlag geführt hatten, verändern. Wenn die „Weichen“ an einer früheren Stelle anders gestellt werden, ergibt sich gegebenenfalls auch ein neuer Diagnose-Vorschlag. Dies abzubilden im Sinne einer hervorragenden User Experience, darin sehe ich die große Herausforderung für die nächsten zwei Jahre.

Vielen Dank für Ihre Zeit und weiterhin viel Erfolg!

Weitere Infos zum Thema finden Sie auf der Webseite von mediaire.

Bildquelle: mediaire

Further Reading