Wie stark ist die momentane Diskussion von dem Datenschutz geleitet?
Natürlich wird der Datenschutz immer wieder als Vorwand genommen, wenn Veränderungen gesellschaftlich nicht gewollt sind. Gleichzeitig ist die Selbstbestimmung der Patienten wichtig und niemand möchte, dass in Deutschland der gläserne Patient zum Standard wird – insbesondere, weil es sich bei Patientendaten um extrem sensible Informationen handelt. Ich würde mir dennoch wünschen, dass die Debatte um den Datenschutz etwas weniger darüber geführt wird, was nicht geht, sondern viel stärker dahin führt, dass anhand von Beispielen klar wird, was geht und wie man etwas umsetzen kann. Positivbeispiele zu finden, wäre hier der Schlüssel.
Welche anderen Fragen müssen noch geklärt werden, bevor KI tatsächlich zur Anwendung kommt?
Grundsätzlich gibt es noch recht viel Forschungsbedarf. Das zeigt sich auch bei unserer Arbeit auf der Plattform Lernende Systeme. Zum Beispiel die Frage, wie sich ein System zertifizieren lässt, das per Definition noch gar nicht fertig ist. Hier braucht es noch eine intensivere Auseinandersetzung und Kriterien, die dazu erst entwickelt werden müssen. Auch die Frage der Haftung ist bislang noch weitestgehend ungelöst, aber gleichzeitig von elementarer Bedeutung. Denn wer ist verantwortlich, wenn eine Diagnose, oder gar eine Therapie falsch erstellt wird?
Wie könnte ein besseres Verständnis von KI in der Gesellschaft geschaffen werden?
In der allgemeinen Betrachtung ist es durchaus problematisch, wenn die KI nur als Black Box wahrgenommen wird. Sowohl als Arzt wie auch als Patient möchte man wissen, warum eine Maschine zu einer bestimmten Entscheidung kommt und dafür ist Transparenz unerlässlich. Letztendlich müssen wir alle – als Ärzte, Patienten und als Gesellschaft – lernen, die Ergebnisse der KI besser zu deuten. Denn es sind stets nur mögliche Ergebnisse, die sich aufgrund von Vorerkrankungen und den Wahrscheinlichkeiten ergeben, mit denen die Maschine rechnet.