Sysmex Deutschland
Menu

Kurzfristig überwiegen die Chancen

XTRA-ARTIKEL AUSGABE 2/2021

 

Interview mit Prof. Dr. Dr. Claus Beisbart

Welche Vorteile bietet künstliche Intelligenz in der Medizin? Und wie kann man sich vor Missbrauch schützen? Einschätzungen des Berner Wissenschaftsphilosophen Prof. Claus Beisbart

Text: Verena Fischer

Herr Prof. Beisbart, Sie setzen sich mit den ethischen Grundlagen von Machine Learning auseinander. Welche Chancen und Risiken gibt es aus Ihrer Sicht für Mediziner und Patienten?

Ich bin überzeugt, dass kurzfristig auf jeden Fall die Chancen überwiegen und dass wir auf bessere Diagnosen und Therapien hoffen dürfen. Zusätzlich werden sich damit Kosten sparen lassen und es wird mehr Zeit für das Gespräch zwischen Arzt und Patient bleiben. Auch die medizinische Forschung wird von KI profitieren, da eine bessere Datenanalyse die Entwicklung neuer Medikamente ermöglichen kann. Es gibt natürlich auch Risiken. Zum Beispiel, dass Patientendaten nicht sicher sind, das Arzt-Patienten-Verhältnis gestört wird und es zu einer technokratischen Medizin kommt, die von Maschinen dominiert ist. Entscheidungen würden dadurch intransparenter. Das ist ein generelles Problem mit KI, weil wir die Technik im Moment noch nicht gut nachvollziehen können. Algorithmen des maschinellen Lernens haben zwar hohe Erfolgsquoten, aber war-um sie so arbeiten, wie sie arbeiten, und warum sie so erfolgreich sind, das verstehen wir nicht wirklich.

Wie lässt sich solchen Risiken vorbeugen?

Beim Datenschutz geht es zum einen um die rechtliche Seite. Also: Wer hat Zugriff auf die Daten? Die technische Herausforderung dabei ist zu garantieren, dass Systeme nicht gehackt werden können. Beim Arzt-Patienten-Verhältnis kommt es darauf an, wie wir KI in Zukunft einsetzen. Im Moment unterstützt sie den Arzt bei Diagnosen, indem sie etwa Krebszellen erkennt. Die KI gibt Informationen, aber es bleibt der Arzt, der dem Patienten gegenübersteht. Künstliche Intelligenz ist eben nicht der direkte Ansprechpartner. Man könnte theoretisch auch die ärztliche Entscheidung auf die KI auslagern. Dann erreichen wir eine neue Dimension.

Mal angenommen, wir kämen dahin. Wer wäre dann bei Fehlentscheidungen haftbar?

Die rechtliche Haftung hängt vom geltenden Recht ab, und das ist nicht überall dasselbe. Es könnte eine Produkthaftung sein, das heißt, die Firma, die das Gerät hergestellt hat, haftet. Ebenso kommt eine Nutzerhaftung infrage. Langfristig ließe sich diskutieren, ob es eine Haftung für die KI selbst geben kann. Dass man sagt, die KI muss irgendwie bestraft werden, aber dazu müsste man sich natürlich überlegen, was für eine Strafe sinnvoll wäre. Solange es dafür keine praktikablen Ideen gibt, wird man versuchen, die Verantwortung auf die Anwender, also Mediziner, sowie die Herstellerfirma zu verteilen.

Wenn KI und Ärzte unterschiedlicher Meinung sind, wer soll dann Recht bekommen?

Aus meiner Sicht ist das kein ethischer Konflikt, sondern viel-mehr ein medizinischer, da nicht klar ist, ob das eigene Urteil richtig ist oder das eines anderen Systems stimmt. So was hat man ja auch häufig in Gerichtsverfahren, wenn man auf unterschiedliche Zeugenaussagen trifft, die sich widersprechen. In solchen Situationen sollte man nach den Begründungen für die unterschiedlichen Meinungen fragen.

Ein Beispiel: Ein Pharmaunternehmen bietet einen Algorithmus zur Krebsdiagnose an. Woher weiß ich, dass bei Befunden keine wirtschaftlichen Interessen eine Rolle spielen?

Hier braucht es eine Kontrollinstanz. Eine Möglichkeit ist, dass man versucht, die Lieferkette entsprechend zu kontrollieren. Es ist auch immer wichtig, dass es noch einen Qualitätscheck durch den Arzt gibt, der dann sagt, ob die Diagnose so in Ordnung ist oder nicht. Solche Kontrollen sind natürlich auch nicht perfekt, weil ein Arzt auch nicht alles sieht. Deshalb ist es wichtig, an unterschiedlichen Punkten anzusetzen, um das Vertrauen in solche Technologien zu stärken.

Könnte ein Gütesiegel eine Lösung sein?

Das ist eine Möglichkeit. Bei den Gütekriterien ist dabei die Fairness eine harte Nuss. Algorithmen sollen in dem Sinne fair sein, dass sie für unterschiedliche Gruppen, etwa Frauen und Männer, gleich gut funktionieren. Wie man diese Fairness messen und realisieren kann, wird derzeit erforscht.

Prof. Dr. Dr. Claus Beisbart ist Extraordinarius mit Schwerpunkt Wissenschaftsphilosophie am Institut für Philosophie der Universität Bern

Fotoquelle: Sam Buchli

Copyright © Sysmex Europe SE. All rights reserved.