Vom Halbgott in Weiß zum Hilfssheriff von Diagnose-Apps?

Künstliche Intelligenz hat sich zu einem Buzzword entwickelt, ohne das kaum eine Veranstaltung mehr auskommt, auch im Gesundheitswesen. Doch was genau verbirgt sich dahinter? Welche Potenziale ergeben sich für die Gesundheitsbrache, für die Behandlung von Patienten? Was ist realistisch, was nicht? Und wie wirkt sich Künstliche Intelligenz auf Berufsbilder aus? Müssen neue Rahmenbedingungen geschaffen werden, welche moralisch-ethische Fragestellungen berücksichtigt? Darüber diskutierten die Teilnehmer des Luncheon Roundtable-Gesprächs der Stiftung Münch im April.

Zu den Teilnehmern gehörten:

  • Dr. Franz Bartmann, Präsident der Ärztekammer Schleswig-Holstein
  • Dr. Dominik Böhler, Head of Entrepreneurship, UnternehmerTUM
  • Dr. Ulrich Eberl, Redaktionsbüro SciPress für Wirtschafts-, Wissenschafts- und Technikkommunikation, Buchautor „Smarte Maschinen“, „Zukunft 2050“, „Tatort Zukunft“
  • Dr. Martin Hirsch, Mitgründer und Chief Scientific Officer, Ada Health GmbH
  • Prof. Klaus Juffernbruch, IFGS Institut für Gesundheit und Soziales, FOM Neuss; Vorsitzender der Expertengruppe digitale Gesundheit
  • Dr. Manfred Kyne, Oberarzt Kinderorthopädie am Klinikum Wolfsburg, Volkswagen AG
  • Prof. David Matusiewicz, Direktor, Institut für Gesundes & Soziales, FOM Essen
  • Marc Pickardt, Business Development Manager, Health DataSpace, Vorstand Gesundheitsregion Nord
  • Dr.  Szabolcs Rozsnyai, Google Cloud Customer Engineer, Wien
  • Matthias Spielkamp, Journalist, AlgorithmWatch
  • Prof. Hans Weiser, Präsident des Verbands leitender Krankenhausärzte Deutschlands e.V.

sowie von der Stiftung Münch Stephan Holzinger (Vorstandsvorsitzender), Prof. Boris Augurzky (wiss. Geschäftsführer), Dr. Johannes Gruber (Geschäftsführer) und Annette Kennel.

Was ist künstliche Intelligenz?

„Entweder etwas ist intelligent oder eben nicht“, so lautete eines der Eingangsstatements. Doch was ist eigentlich Intelligenz? Eine einheitliche Definition gibt es nicht. Im Allgemeinen wird darunter die Summe verschiedener kognitiver Fähigkeiten verstanden: wie werden erlerntes Wissen, persönliche Erfahrungen und Beobachtungen verarbeitet und auf neuartige Situationen übertragen? Auch die Fähigkeit, Gefühle zu verstehen, gehört als emotionale Intelligenz dazu.

Überträgt man dies auf einen Computer, so wäre er intelligent, wenn er ähnlich wie der Mensch Probleme eigenständig lösen kann. Dazu muss die Maschine ebenfalls in der Lage sein, neues Wissen zu erwerben, vorhandenes Wissen zu berücksichtigen, aus Erfahrungen zu lernen und situationsabhängige Entscheidungen zu treffen. Im menschlichen Gehirn funktioniert das Lernen durch die Verknüpfung von Nervenzellen. Beim maschinellen Lernen oder Deep Learning (ein Teilbereich des maschinellen Lernens) wird diese Verknüpfung durch künstliche neuronale Netzen nachgeahmt. In einer Eingabeschicht werden die Daten bereitgestellt. Diese sind in mehreren Schichten untereinander verbunden  – ähnlich dem Netzwerk der Gehirnzellen – und geben schließlich das Ergebnis in der Ergebnisschicht aus. Zusammenfassend sind neuronale Netze selbstadaptive Algorithmen zur Lösung bestimmter Probleme, welche durch Daten trainiert werden.

Schnellere Rechner, bessere KI?

Die Prinzipien der künstlichen neuronalen Netzwerke und des Deep Learnings sind nicht neu. Doch die Leistungsfähigkeit der Hardware hat sich massiv gesteigert. Während in den 90er Jahren die neuronalen Netzwerke aus wenigen hintereinanderliegenden Schichten bestanden, sind es heute bereits bis zu 30 – was eine millionenfache Steigerung der Vernetzung bedeutet. „Werden die Chips noch leistungsfähiger, werden auch Deep Learning-Verfahren leistungsfähiger“, war ein Teilnehmer überzeugt und prognostizierte nach dem Moorschen Gesetz eine Verdoppelung der Leistung alle 24 Monate. Dem widersprachen andere Diskussionsteilnehmer: KI sei kein Problem der Hardware, sondern der Definition dessen, was Intelligenz konkret ist. Er sah jedoch starke Sprünge in der Weiterentwicklung durchaus als möglich an, wenn die Systeme auf eine andere Art angelernt würden – und Erkenntnisse aus der Gehirnforschung zur Anwendung kommen.

Relevante Basis für KI: Daten

Damit KI überhaupt entstehen kann, sind Daten erforderlich, auf deren Basis die Maschinen angelernt werden. Hier liegt in der Medizin ein großes Problem vor. Zwar sind viele Daten wie zum Beispiel ärztliche Befunde in elektronischer Form erfasst, jedoch sind diese weder strukturiert noch annotiert, also mit Zusatzinformationen zur Bedeutung der Begriffe versehen. Soll ein Rechner erkennen, ob ein Hund oder eine Katze zu sehen ist, braucht er viele Bilder für den Lernvorgang, die mit dem korrekten Tier markiert sind. Damit kann er dann zwischen den Tieren, nicht aber innerhalb der Rasse unterscheiden. Auf die Medizin übertragen bedeutet das, dass etwa die Konnotation „Karzinom“ nur bedingt aussagekräftig ist, es fehlen Faktoren wie Stadium, Größe etc.

Die Erfassung der Befunde in den gängigen Katalogen und insbesondere nach ICD-10 ist demnach nicht granular genug, um dem Deep Learning gerecht zu werden. Zudem wird die ICD10-Diagnose häufig nur zu Abrechnungszwecken erfasst und ist darauf optimiert. Damit entspricht sie nicht immer dem Detailgrad des Befundes. Eine nachträgliche Annotation der Daten wäre jedoch sehr aufwändig. Teilnehmer betonten, dass etwa ein fünffaches „Training“ nötig wäre, um die Maschine möglichst gut anzulernen – das bedeutet, dass ein Symptom von mindesten fünf Ärzten bewertet und erfasst werden muss. Erschwerend komme die Komplexität der deutschen Sprache hinzu – so gebe es für eine Erkrankung oft mehre geläufige Bezeichnungen. Hier sei die Situation in den USA einfacher, wo es eine striktere Nomenklatur gebe. Ein Teilnehmer sah auch die Fachgesellschaften gefordert, sie sollten dafür sorgen, vernünftig annotierte Daten zu liefern. Ein Teilnehmer wies überdies darauf hin, dass annotierte Daten auch durch die Patienten selbst erhoben werden könnten. Dem schloss sich ein anderer an: Das iPhone sei das Stethoskop des 21. Jahrhunderts in der Tasche des Patienten.

KI als Fachidiot?

Alle Teilnehmer waren sich einig, dass die KI nicht in der Lage sein wird, den Arzt zu ersetzen. Sie kann aber in klar umrissenen Aufgabenbereichen dem Menschen überlegen sein. Sie werde daher die Funktion eines schlagkräftigen Assistenten übernehmen, der dem Arzt Vorschläge macht. Der Arzt entscheide dann eigenverantwortlich, ob er diesen Vorschlag übernimmt oder nicht. Ärzte profitieren davon zum einen, weil sie auch Hinweise auf Krankheitsbilder erhalten, denen sie selbst nicht täglich begegnen. Zum anderen profitieren sie aber auch davon, dass Patienten mit den Analyseergebnissen einer KI zu ihnen kommen, „das ist viel besser als eine Liste von zusammengegoogelten Krankheiten“, so ein Teilnehmer.

Für einzelne Bereiche konnten die Algorithmen bereits erfolgreich angelernt werden und zeigen gute Ergebnisse: Paradebeispiel ist hier die Radiologie. Als Röntgenbilder vom NIH freigegeben wurden, konnten die Wissenschaftler in Stanford erreichen, dass nach vier Monaten eine KI Bilder auswerten und befunden konnte – bei gleichen bis besseren Ergebnissen als Ärzte. „Das zeigt, dass das Deep Learning funktioniert, wenn gute Daten vorhanden sind“, betonte ein Diskutant. Und in Zeiten des Ärztemangels sei dies ein wichtiger Schritt. Ein anderer Teilnehmer zeigte sich überzeugt, dass die Hausärzte als nächste Fachgruppe durch den Einsatz von KI mit deutlichen Veränderungen werde rechnen müssen.

Akzeptanz bei Patienten wird zum Wandel führen

Man befinde sich in einer Zeit der Pseudodigitalisierung in der Medizin, formulierte ein Teilnehmer. So werden nach wie vor zwar zum Beispiel Befunde nur eingescannt und im Anschluss als pdf weitergeleitet oder sogar noch per Fax übermittelt. Digitalisierung sei mit Zusatzarbeit verbunden, werde als Erschwernis angesehen und allenfalls für die Abrechnung eingesetzt. Hier prognostizierten viele Teilnehmer einen Wandel, angetrieben durch die Patienten, die digitale Angebote stärker nutzen und damit den Druck auf das System erhöhen. In den USA etwa liegt seit kurzem die Klage eines Patienten gegen seinen Arzt vor, der eine digitale Diagnoseunterstützung nicht genutzt habe, um zum korrekten Befund zu kommen. Und auch an einer deutschen Universitätsklinik sei die Diagnoseunterstützungsapp Ada durch Patienten zur Anwendung gekommen und heute nicht mehr wegzudenken.

 

Arztberuf im Wandel: Vom Halbgott in Weiß zum Hilfssheriff von Diagnose-Apps?

Telefonnummern wissen die meisten Menschen nicht mehr auswendig, seit sie zuverlässig im Smartphone gespeichert sind. Bei Fahrten verlassen sich viele blind auf das Navigationssystem, ohne vorher auf Landkarten den richtigen Weg zu studieren oder sich aufmerksam den Weg merken, um ihn beim nächsten Mal zu kennen. So verlieren sie die Fähigkeit, sich selbstständig zurecht zu finden. Wird sich KI zur Diagnoseunterstützung auf die Ärzte ähnlich auswirken?

Ärztliche Intelligenz setze sich aus drei Faktoren zusammen: der Fachkenntnis zur Diagnose (mittels Fragen), der persönlichen Erfahrung und der sozialen Intelligenz, Empathie und Verantwortung, die der Arzt wahrnehme. Die Erfahrung sei jedoch nichts anderes als Mustererkennung und in diesem Bereich funktioniert KI sehr gut, in den anderen Bereichen dagegen nicht. Als Beispiel wurde angeführt, dass Apps auf dem Smartphone bereits anhand des Hustens zuverlässig sagen können, ob es sich um COPD oder Bronchitis handelt – gelernt an vielen Beispielen, also aus Erfahrung.

Nutzt der Arzt seine eigene „Musterkennung“ nicht mehr – kann er dann eine solche Erfahrung noch aufbauen oder wird er abhängig von der KI? Und wenn er seine Erfahrung verliert – wie kann er dann die Vorschläge der KI beurteilen und die Behandlung des Patienten verantworten? Hier sei dringend Verhaltensforschung erforderlich, forderten einige Teilnehmer. Eine Masterarbeit habe untersucht, wie Ärzte reagieren, wenn die KI ihnen falsche Diagnosen vorschlage. Gehen diese Diagnosen gegen die Erfahrung der Ärzte, werden sie verunsichert und lassen sich dadurch beeinflussen. Ergebnis: über 90 Prozent übernahmen die falsche Diagnose. Allerdings habe aber auch die Einführung „analoger“ Leitlinien zu Problemen geführt. Seitdem häuften sich Klagen gegen Ärzten, die sich strikt daran gehalten haben, statt wichtige Details zu berücksichtigen und ihre Entscheidungen entsprechend anzupassen.

Ärzte müssen in der Lage sein, die Vorschläge der KI nachvollziehen und sich auch anders entscheiden zu können, wenn es gute Gründe dafür gibt. Damit das möglich ist, sei es entscheidend, dass die Maschine ihre Vorschläge nicht nur ausgibt, sondern unbedingt begründet und damit nachvollziehbar macht, betonte ein Diskussionsteilnehmer. Wichtig sei es auch, dass die Verantwortung weiterhin beim Arzt liege und er diese nicht abgebe. Denn eine medizinische Entscheidung basiere auf Erfahrung, Routine und Beurteilung des Gesamtbildes – und sei im medizinischen Bereich eine Fähigkeit, die nicht von einer Maschine getroffen werden könne.

Nach wie vor werden nach Ansicht der Diskussionsteilnehmer die Auswirkungen des Einsatzes von KI auf Gesellschaft, Organisation und Arbeitsabläufe unterschätzt. Nötig sei eine Diskussion der damit verbundenen Folgen für die Zukunft der Arbeit und der Berufsbilder. Der technische Fortschritt sei abgekoppelt von beruflichen und regulatorischen Bereichen: „Ich sehe keinen Gestaltungswillen der Politik und Phlegma auf Seiten der Wissenschaft“, so ein Teilnehmer.