Foto: Jared Arango / Unsplash

Wie weit darf KI gehen?

Über Aufgabenteilung und Verantwortung von Mensch und Maschine

0 Kommentare
  • 2

Wir würden gerne erfahren, was Sie persönlich über das Thema Künstliche Intelligenz in der Medizin denken und wie Ihnen die-debatte.org gefällt. Nehmen Sie hier an unserer 5-minütigen, anonymen Umfrage teil. Die Antworten werden von der Abteilung für Kommunikations- und Medienwissenschaften der TU Braunschweig in einem begleitenden Forschungsprojekt ausgewertet.

Ob als fahrender Roboter, der Senioren im Pflegeheim die richtigen Medikamente bringt, als Roboterarm, der Ärzte während Operationen unterstützt, oder als Smartphone-App, die Hautkrebs erkennen kann – Künstliche Intelligenz (KI) hält zunehmend Einzug in unser Gesundheits- und Pflegesystem. Zwar sind noch nicht alle Anwendungen ausgereift, doch langfristig erhofft man sich vom Einsatz dieser und ähnlicher KI-Systeme sowohl eine Entlastung der Pflegekräfte als auch präzisere Behandlungen und Diagnosen.

Doch trotz aller potenziellen Vorteile gibt es auch Bedenken, wenn Patienten und Pflegebedürftige plötzlich mit Maschinen anstatt mit Menschen interagieren. Insbesondere in der Pflege, wo zwischenmenschlicher emotionaler Kontakt zwischen Patienten und Pflegern essentiell ist, wird der Einsatz von Maschinen teils skeptisch betrachtet. Prof. Dr. Oliver Bendel, der am Institut für Wirtschaftsinformatik der FHNW in der Schweiz lehrt und sich bereits seit vielen Jahren mit den Beziehungen zwischen Menschen und Maschinen beschäftigt, teilt diese Sorge nicht: „Pflegeroboter unterstützen und entlasten zunächst einmal Pflegekräfte. Diese werden bis auf weiteres nicht ersetzt. Man arbeitet in der Regel im Tandem zusammen. Von daher fällt der menschliche Kontakt nicht weg.“

„Jeder Patient sollte selbst darüber verfügen können, in welchem Ausmaß und auf welche Weise er von Maschinen gepflegt wird.“

Prof. Dr. Oliver Bendel, Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz

Bisher werden Roboter nur in wenigen Heimen eingesetzt. An mangelnder Akzeptanz liegt dies jedoch nicht. Ganz im Gegenteil: Eine aktuelle Feldstudie der Universität Basel legt sogar nahe, dass Menschen, die besonders auf Hilfestellung angewiesen sind, Roboter überwiegend positiv aufnehmen, da sie von deren Unterstützung profitieren. „Manche Patienten möchten sogar in bestimmten Angelegenheiten lieber einen Roboter bei sich haben als einen Menschen, etwa bei Waschungen im Intimbereich“, sagt Bendel. „Der eigentliche Grund, warum die Roboter, an denen bereits seit vielen Jahren geforscht wird, noch nicht stärker eingesetzt werden, ist das Geld“, sagt Prof. Dr. Karsten Weber vom Institut für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Weder Kranken- noch Pflegeversicherungen würden momentan die Kosten für solche Assistenzsysteme tragen, weshalb die Patienten selbst dafür aufkommen müssten.

Ein Problem, das in der Zukunft jedoch nur noch eine untergeordnete Rolle spielen sollte. Wie bei anderen technischen Geräten auch, ist es wahrscheinlich, dass die Preise für KI-gestützte Pflegeroboter im Laufe der Jahre sinken. So könnte es schlussendlich gerade mit Hinblick auf den demographischen Wandel und den Mangel an Pflegekräften aus wirtschaftlichen Gründen doch dazu kommen, dass Roboter Pfleger ersetzen. „Ich gehöre damit zwar zu einer starken Minderheit, aber meine Prognose ist, dass es irgendwann ein Luxusgut sein wird, von einem Menschen gepflegt zu werden“, sagt Weber. Auch Bendel sieht dieses Szenario als eine Möglichkeit, betont jedoch, dass in einem reichen Land wie Deutschland wirtschaftliche Gründe nur vorgeschoben seien. „Jeder Patient sollte selbst darüber verfügen können, in welchem Ausmaß und auf welche Weise er von Maschinen gepflegt wird. Um das festzulegen, würde sich am besten eine Patientenverfügung eignen“, sagt er.

„Diejenigen, die diese Systeme entwerfen, werden in Zukunft sehr viel mehr Verantwortung tragen in Bezug auf die Auswahl von Trainingsdaten und der Gestaltung ihrer Algorithmen.“

Prof. Dr. Karsten Weber, Institut für Sozialforschung und Technikfolgenabschätzung an der Ostbayerischen Technischen Hochschule Regensburg

Eine große Herausforderung sehen beide Experten beim Thema Datenschutz. Roboter haben Kameras und Mikrofone und sammeln unzählige Daten. „Prinzipiell könnten sich Pflegekräfte oder auch Unbefugte zum Beispiel Zugang zu den Kameras verschaffen und die Patienten beobachten“, sagt Bendel. Er sieht zudem noch ein weiteres Problem: „Wenn wir Roboter humanoid gestalten, äußerlich und in Bezug auf die Stimme, werden sie zu Quasipersonen. Als solche wecken sie Emotionen. Man mag sie, man hasst sie, man denkt, man hat eine Beziehung mit ihnen. So etwas kann man als Missbrauch und Manipulation sehen. Wir sollten daher Roboter-Mensch-Beziehungen immer wieder aktiv stören.“ Dazu schlägt Bendel den sogenannten V-Effekt für Roboter vor und meint damit, dass diese immer wieder aktiv darauf hinweisen, dass sie nur eine Maschine sind.

Bei ethischen Überlegungen zum Einsatz von KI-Systemen im medizinischen Bereich ständen soziale Aspekte weniger im Mittelpunkt, sagt Karsten Weber: „Dort geht es eher um die Fragen: Wer verantwortet eigentlich eine Diagnose? Wer hat das letzte Wort – die Technik oder immer noch der Mensch?“ Wichtig bei diesen Fragen sei es, sich bewusst zu machen, dass KI-Systeme in der Regel für Ärzte Blackboxen darstellen. Denn sowohl Algorithmen als auch Trainingsdaten werden als Firmengeheimnisse behandelt und sind nicht zugänglich. „Diejenigen, die diese Systeme entwerfen, werden in Zukunft sehr viel mehr Verantwortung tragen in Bezug auf die Auswahl von Trainingsdaten und der Gestaltung ihrer Algorithmen“, sagt Weber. „Denn eines ist essentiell, auch wenn es sich um intelligente Systeme handelt, die selbst lernen können: Wie die Systeme handeln und funktionieren, ist letztendlich von dem abhängig, was Menschen ihnen antrainieren.”

„Die Ethik ist eine wichtige Disziplin, aber endgültige Lösungen findet man mit ihr nicht unbedingt. Wir brauchen rechtliche Maßnahmen.“

Prof. Dr. Oliver Bendel, Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz

Wenn beispielsweise ein System zur Erkennung von Hautkrebs nur mit Daten hellhäutiger Menschen trainiert wurde, wird es bei Menschen mit anderen Hautfarben nur schlecht funktionieren. „Wenn das den behandelnden Ärzten nicht bewusst ist und sie sich darauf verlassen, dann werden Fehlentscheidungen getroffen“, sagt Weber. Sein Lösungsvorschlag: Alle Unternehmen müssten ihre Trainingsdaten in einen frei zugänglichen Pool geben. Das würde Transparenz schaffen und die Menge der Trainingsdaten deutlich erhöhen. Wissenschaftler könnten somit auch prüfen, ob das, was die Systeme produzieren, korrekt ist. Wunsch und Wirklichkeit liegen hier jedoch weit auseinander: „Das wird international schwer durchsetzbar sein. Denn da geht es nicht nur um Marktmacht, sondern auch um nationales Prestige“, sagt Weber.

Einheitliche und umfassende Regeln zum Umgang mit KI-Systemen im Bereich der Medizin und Pflege gibt es bisher nicht, auch wenn Expertengruppen weltweit darüber diskutieren. Um gemeinsame Regeln zu definieren, seien laut Weber jetzt vor allem Menschen aus der Praxis und der Wissenschaft gefragt: „Es wäre dringend notwendig, Auseinandersetzungen mit dieser Technik bereits in die Lehrpläne der entsprechenden Studiengänge und Berufsausbildungen einzubauen.“ Oliver Bendel, der Ethik innerhalb von Wirtschaftsinformatik lehrt, sieht jedoch andere in der Bringschuld: „Die Ethik ist eine wichtige Disziplin, aber endgültige Lösungen findet man mit ihr nicht unbedingt. Wir brauchen rechtliche Maßnahmen. Politik und Gesellschaft sollten entscheiden, wie weit der Einsatz gehen darf.“

Debattiere mit!

Deine Emailadresse wird nicht veröffentlicht.

0 Kommentare

Mehr zu dem Thema

  • 0
  • 0
  • 0
  • 0
  • 0
  • 0
Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessen. Durch Deinen Besuch stimmst Du dem zu.