KI soll Bilder zur Schlaganfalldiagnose genauer auswerten

Forscher des Krebsforschungszentrums und der Universitätskliniken Heidelberg und Bonn haben eine KI zur "genaueren Auswertung" von CT-Bildern entwickelt.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Arzt berührt Bildschirm mit CT-Bildern vom Gehirn. Im Hintergrund ist ein Monitor mit Vitaldaten

(Bild: Tridsanu Thopet/Shutterstock.com)

Update
Lesezeit: 3 Min.

Bei Patienten mit Verdacht auf einen akuten ischämischen Schlaganfall (akute Minderdurchblutung des Gehirns) oder einen Hirninfarkt ist es essenziell, möglichst schnell Gefäßverschlüsse und Gewebeschäden zu erkennen. Ein KI-System für die computertomografische Angiografie (CTA) von Forschern des Universitätsklinikums Heidelberg (UKHD), des Deutschen Krebsforschungszentrums (DKFZ) und des Universitätsklinikums Bonn (UKB) soll Ärzte bei der Diagnose eines Schlaganfalls besser und vor allem schneller unterstützen als derzeit verfügbare KI-Anwendungen. Das geht aus der in der Fachzeitschrift Nature veröffentlichten Studie hervor.

Die KI wurde mit Bilddaten von mehr als 1.000 Patienten trainiert, die einen Verdacht auf Schlaganfall hatten und am UKHD untersucht wurden. Es folgte an verschiedenen Kliniken eine Testphase von sechs Monaten – darunter waren das UKB und drei Kliniken des Schlaganfallkonsortiums Rhein-Neckar (FAST), die mittels Teleneurologie und Teleradiologie vom UKHD unterstützt wurden.

"Unser Algorithmus zeigte sich im Vergleich zu kommerziellen KI-Produkten deutlich genauer", sagte Philipp Vollmuth, Co-Autor des Artikels und Leiter des Bereichs Computational Neuroimaging an der Klinik für Neuroradiologie des UKHD gegenüber dem Ärzteblatt. Ferner sei der negative Vorhersagewert, also dass bei Ausschluss eines Gefäßverschlusses durch den Algorithmus die Vorhersage tatsächlich korrekt ist, mit bis zu 97 Prozent bereits sehr gut, so Vollmuth.

Die Entwicklung der KI basiert auf der von dem Forscherteam zuvor auf Github unter Apache-2.0-Lizenz veröffentlichten nnDetection-Methode zur medizinischen Objekterkennung. nnDetection soll sich "an beliebige medizinische Erkennungsprobleme" anpassen. Alle anderen Codes können laut den Autoren angefordert werden. Das trainierte Modell zur Generierung der Ergebnisse wird von den Wissenschaftlern auf einer Plattform bereitgestellt.

Der auf dem Open-Source-Toolkit zur medizinischen Datenanalyse "Kaapana.ai" basierende Online-Demonstrator steht samt Testbild im DICOM-Format (Digital Imaging and Communications in Medicine) bereit. Mit dem medizinischen Dateiformat und Kommunikationsprotokoll können Ultraschall- und MRT-Bilder zusammen mit Patientendaten in einer Datei gespeichert werden. Der Demonstrator soll interessierten Forschern die Möglichkeit geben, den veröffentlichten Algorithmus mit selbst bereitgestellten Daten zu testen.

Die KI erkennt Gefäßverschlüsse in CTA-Bildern und erstellt danach zwei anonymisierte DICOM-Bilder mit den Ergebnissen. Diese werden in einem DICOM-Speicher abgelegt. Die Website zeigt in einem DICOM-Viewer, ob und wo Gefäßverschlüsse vorhanden sind. Wer will, kann eigene Daten im DICOM-Format als ZIP-Datei hochladen. Das Forscherteam weist darauf hin, dass der Demonstrator "ausdrücklich nicht für diagnostische oder therapeutische Anwendungen" gedacht sei und daher auch nicht für derartige Zwecke verwendet werden sollte.

Zudem kann die Analyse der Bilder aufgrund der begrenzten Rechenkapazität des Webviewers rund zehn Minuten dauern. Die Daten werden zudem nach 24 Stunden gelöscht, es sei denn, es wurde zuvor einer Datenspende zu Forschungszwecken zugestimmt, mit der das neuronale Netzwerk zur "Blaupause für die Entwicklung robuster und verallgemeinerbarer KI-Algorithmen" werden könnte. In Zukunft soll die Robustheit des Systems in Zusammenarbeit mit einem "Verbund von 30 internationalen klinischen Partnern" weiter erhöht werden, wie das Team heise online mitgeteilt hat. Außerdem ist eine Zulassung als Medizinprodukt geplant.

Update

Zwei Sätze zu den Plänen für die Zukunft ergänzt.

(mack)