Der digitale Arzt - Künstliche Intelligenz im medizinischen Umfeld

Der Einsatz von automatisierten Entscheidungssystemen in der Medizin kann große Vorteile, aber auch komplexe ethische und rechtliche Fragestellungen mit sich bringen.

Der Grundstein zur modernen Forschung im Bereich künstlicher Intelligenz (KI) wurde bereits im Jahr 1956 auf der legendären Dartmouth-Konferenz gelegt. Im medizinischen Bereich kommen regelbasierte Computerprogramme als Expertensysteme bereits seit rund 50 Jahren zum Einsatz. So konnte die bereits im Jahr 1974 erstellte Anwendung MYCIN bakterielle Blutinfektionen erkennen und geeignete Therapievorschläge erteilen. Erst in den letzten Jahren führten bahnbrechende Entdeckungen im Bereich neuronaler Netze bzw. „deep learning“ (DL) zu einer insgesamt verstärkten Auseinandersetzung mit der Technologie, die auch in den medinischen Bereich ausstrahlen sollte.

Datengetriebene KI-Systeme sind in der Lage, aus großen Datenmengen Muster zu extrahieren, autonom zu lernen und Entscheidungen zu finden. Die Einsatzmöglichkeiten im medizinischen Bereich sind dabei vielfältig und reichen von Präzisionsmedizin, Tumorerkennung und vollautomatisierten Operationen bis hin zur Unterstützung bei der Selektion, welcher Patient bei Ressourcenknappheit des Gesundheitssystems prioritär behandelt wird (Triage).

Datenlager stehen bereit

Damit solche Systeme entwickelt und verbessert werden können, sind große Mengen an Daten erforderlich. Derartige Datenbestände existieren bereits in einer Vielzahl unterschiedlicher Speicher, etwa in öffentlichen Registern oder in Krankenhausinformationssystemen. Gleichsam sind sie auch über die Elektronische Gesundheitsakte (ELGA) verfügbar. Als von der DSGVO besonders gut geschützte Gesundheitsdaten unterliegen diese Bestände einem strengen Datenschutzregime. Jedoch bestehen für den Bereich der wissenschaftlichen Forschung und der öffentlichen Gesundheit weitreichende Ausnahmen im europäischen und nationalen Datenschutzrecht, die eine einwilligungslose Nutzung dieser Datenbestände unter bestimmten Voraussetzungen gestatten. Im Falle von ELGA wurden bereits im Forschungsorganisationsgesetz (FOG) die rechtlichen Grundlagen für einen solchen Datenzugriff unter Vorbehalt der „Freischaltung“ des Registers durch Verordnung geschaffen. Es bleibt daher – auch im Lichte der anhaltenden Sars-CoV2-Pandemie –  abzuwarten, ob der Zugriff auf die darin enthaltenen Daten in absehbarer Zeit für die Forschung geöffnet werden wird. 

Unmittelbare Berufsausübung versus Autonomiegrad der KI

Kennzeichnend für den Berufsstand des Arztes ist die persönliche und unmittelbare Berufsausübung und die damit einhergehende Betreuung des Patienten. Dessen umfassende Untersuchung, Diagnostik sowie die darauffolgende Entwicklung einer Therapie bilden eine der Hauptleistungspflichten im Behandlungsvertrag. Mit fortschreitendem Autonomiegrad eines KI-Systems findet eine graduelle Verlagerung dieser Tätigkeiten statt, sodass in extremo ein völlig autonom agierender „KI-Arzt“ sämtliche Tätigkeiten übernimmt, die aufgrund gesetzlicher Verpflichtungen eigentlich der „menschliche“ Arzt zu erbringen hätte. Im Hinblick darauf, dass einzelne spezialisierte KI-Systeme mittlerweile ihre menschlichen Pendants übertreffen können (so etwa bei der Erkennung von Hauttumoren), wirft dies vielfältige ethische, berufsrechtliche, aber auch haftungsrechtliche Fragen auf, deren Aufarbeitung erst beginnt. So stellt sich etwa die Frage, ob der Arzt schon aus haftungsrechtlichen Gesichtspunkten noch eine eigenständige Diagnose treffen möchte, wenn ihm diese von einer darauf spezialisierten KI-Applikation vorweggenommen wird. Zwar besteht die Möglichkeit, dass der Arzt auf seine persönliche Erfahrung vertraut, sich gegen die vom KI-System vorgeschlagene Diagnose und Therapie entscheidet und damit (letztlich zum Wohl des Patienten) richtig liegt. Liegt er jedoch falsch, wird er sich in einem allfälligen Haftungsprozess damit konfrontiert sehen, sein Abgehen von der Entscheidung des KI-Systems im Detail zu begründen.

Über Vorurteile und schwarze Boxen

Die Zuverlässigkeit (und damit auch Sicherheit) eines KI-Systems hängt maßgeblich von der Qualität der Daten ab, mit welchen es angelernt wurde. Wird daher fehlerhaftes oder unvollständiges Datenmaterial für die Entwicklung einer KI-Applikation herangezogen, werden diese Fehler bzw Lücken in die Entscheidungen der KI einbezogen. Die KI „übernimmt“ daher allfällige in den Daten enthaltene Vorurteile („bias“) und gewichtet bestimmte, in realiter völlig unerhebliche Merkmale als relevant. Geht daher aus den Trainingsdaten hervor, dass bei Vorliegen derselben Diagnose Patienten mit österreichischem Wohnort eine kostenintensivere Therapie als Patienten mit deutschem Wohnort erhielten, wird die KI ebenso entscheiden, sofern nicht im Vorfeld – uzw im Zeitpunkt der Lernphase – Vorkehrungen dagegen getroffen wurden.

Derartige Disparitäten lassen sich in einem transparenten KI-System in aller Regel leicht nachvollziehen. In regelbasierten Expertensystemen, in welchen die Regeln klar und nachvollziehbar gelistet sind, würde ein solches Entscheidungsverhalten zur Entfernung der (unzulässigen) Regel führen. Bei neuronalen Netzen sind jedoch die maßgeblichen Parameter für die Entscheidung nicht immer nachvollziehbar, sodass der Entscheidungsprozess nach Übergabe der Eingangsparameter in einer schwarzen Box („black box“) stattfindet. Zwar könnten die mathematischen Berechnungen zwar (theoretisch) nachgeprüft werden, aufgrund der Komplexität des Systems ist der Arzt jedoch nicht in der Lage, diese Berechnungen zu verstehen oder interpretieren. Nicht nur aus datenschutzrechtlicher, sondern auch aus berufsrechtlicher Sicht wird sich die Notwendigkeit ergeben, nur solche Systeme einzusetzen, die eine solche Nachvollziehbarkeit des Entscheidungsprozesses in jedem Fall gewährleisten können. 

Stand: 04.09.2020