5 Fragen an Prof. Dr. Arne Manzeschke

Foto von Prof. Dr. Arne Manzeschke, © Rummelsberger DiakonieProf. Dr. Arne Manzeschke lehrt Anthropologie und Ethik für Gesundheitsberufe an der Evangelischen Hochschule Nürnberg. Für unser aktuelles Archivheft hat er den einführenden Beitrag über "Roboter in der Pflege: ethische Überlegungen zu einem unklaren Phänomen" verfasst.

Im Interview haben wir ihn u. a. gefragt, ob Roboter fehlende Pflegekräfte ersetzen könnten und ob bzw. wie der Gesetzgeber den Einsatz von Robotern regeln sollte.


dv aktuell: Können Roboter die (fehlenden) Pflegekräfte ersetzen?

Prof. Dr. Arne Manzeschke: Nein, mit Sicherheit nicht. Gute Roboter können die Pflegekräfte dabei unterstützen und auch entlasten, wenn es um bestimmte, wohl definierte Tätigkeiten geht. Aber Roboter sind vom technischen Stand her derzeit nicht in der Lage, eine menschliche Pflegekraft zu ersetzen. Dazu sind die pflegerischen Tätigkeiten zu komplex und von zu vielen Faktoren abhängig, die derzeitige Roboter nicht alle auf einmal bearbeiten können. Roboter sind Hochleistungsmaschinen für ganz bestimmte Zwecke, aber sie sind keine "Allrounder", die so viele Parameter im Moment zu einer menschendienlichen Handlung verknüpfen können.

dv aktuell: Was spricht angesichts des Fachkräftemangels gegen technische Unterstützung und emotionale Zuwendung durch Roboter?

Prof. Dr. Arne Manzeschke: Gegen technische Unterstützung spricht nichts. Emotionale Zuwendung durch den Roboter gibt es nicht. Es ist durchaus sinnvoll, wenn Pflegekräfte, von denen es zu wenige gibt und deren Arbeitsbedingungen derzeit alles andere als attraktiv sind, durch Roboter (etwa beim Lagern, Mobilisieren oder beim Transport von Material) unterstützt werden. Das ist eine sinnvolle Entlastung. Auch bei der Dokumentation, die ja einen immer größeren Teil der Arbeit von Pflegekräften in Anspruch nimmt, ist eine Unterstützung sinnvoll, so dass die Pflegekräfte sich dann wieder verstärkt den Patientinnen und Bewohnern zuwenden könnten.

Eine emotionale Zuwendung durch den Roboter aber wird es nicht geben, denn Roboter haben schlicht keine Emotionen. Dass wir Menschen sie emotional besetzen, ihnen aufgrund einer bestimmten Erscheinung Emotionen zuschreiben, widerspricht dem nicht. Es mag vorkommen, dass Menschen sich bei Robotern emotional gut aufgehoben, sogar verstanden fühlen, aber das ist am Ende eine Projektion, vielleicht sogar eine wohltuende Illusion.

Freilich, auch menschliche Pflegekräfte können professionelle Freundlichkeit darstellen und könnten dabei emotional unbeteiligt sein, aber das ist dann kategorisch etwas anderes. Der pflegende Mensch würde in dem Fall die emotionale Zuwendung verweigern oder vorspielen – aber er könnte sich prinzipiell zuwenden. Und das ist es auch, was wir in Maßen und mit guten Gründen von ihm erwarten. Der Roboter kann es grundsätzlich nicht. Ob es irgendwann einmal Roboter geben wird, die so etwas wie ein emotionales Eigenleben führen, wird nicht zuletzt davon abhängen, ob wir solche Wesen schaffen wollen. Es erscheint mir aus mehreren Gründen nicht erstrebenswert. Kurz gesagt haben wir schon mit den eigenen Emotionen genug zu tun, zweitens haben "technische Emotionen" immer der Effekt einer menschlichen Anfangsprogrammierung – zu wessen Nutzen und mit welchem Interesse? Die Fragen, die damit auftauchen, sind alles andere als trivial und könnten die Erwartung von der Entlastung durch Roboter schnell zunichte machen.

dv aktuell: Warum nennen Sie Roboter ein "unklares Phänomen"?

Prof. Dr. Arne Manzeschke:Der Begriff Roboter bzw. Pflegeroboter deckt eine sehr große Bandbreite an verschiedenen Typen und Leistungen ab, so dass dieser Begriff in seiner Allgemeinheit wenig in der Debatte hilft. Wovon reden wir genau? Ein Transportroboter, der Medikamente oder Wäsche aus dem Lager holt, ist sowohl von seiner äußeren Erscheinung als auch von seiner Tätigkeit etwas völlig anderes als ein sozio-emotionaler Roboter, der mit "Gesichtszügen", die stark dem Kindchenschema entsprechen, Menschen unterhalten oder zu Spielen, Singen oder Bewegung animieren soll. Noch etwas anderes sind Roboter, die einem Menschen mit Behinderung Essen anreichen sollen und hierbei auf sehr viele Kontextbedingungen achten und äußerst präzise operieren müssen, damit der Mensch keinen Schaden leidet. Diese und noch sehr viele andere Leistungen werden pauschal unter dem Begriff "Roboter" zusammengefasst.
Der Begriff "Pflegeroboter" ist ein gutes Beispiel hierfür. In der öffentlichen Debatte wird mit Pflegeroboter ein technisches System verbunden, das mehr oder weniger das tut, was auch eine Pflegekraft tut – das gibt es so aber nicht. Es geht darum, diese verschiedenen Typen von Robotik, ihre spezifischen Einsätze und ihre jeweilige Bedeutung im sozialen Umfeld zu betrachten. Wenn wir hier nicht sauber unterscheiden, bleibt die Diskussion um "Roboter in der Pflege" diffus und wenig hilfreich.

dv aktuell: Welchen ethischen Grundsätzen müsste der Einsatz von Robotern in der Pflege folgen?

Prof. Dr. Arne Manzeschke:Ethik als Reflexion von Moral ist (bisher) etwas typisch Menschliches. Wir können also von den derzeitigen Roboter nicht erwarten, dass sie ethisch "denken" oder "handeln". Wir Menschen müssen vielmehr darüber nachdenken, wie wir diese Roboter konstruieren wollen, damit sie unseren ethischen Vorstellungen entsprechen. Das ist schon kompliziert und strittig genug. Eine zentrale Frage ist nach meinem Verständnis die, ob wir die Roboter in ihrer Erscheinung und ihren Leistungen (Sprache, Mimik, Handeln, Denken) uns Menschen immer weiter annähern sollten – nur eben besser als wir Menschen.

Das würde dann eines Tages bedeuten, dass wir sie als soziale Gegenüber (als Personen?) anerkennen. In Saudi Arabien hat Roboter Sophia die Staatsbürgerschaft erhalten. Das mag momentan noch ein Marketinggag sein. Dahinter steht aber die ernste Frage, was Roboter für uns Menschen sein sollen. Wir müssen diese Frage beantworten, denn wir Menschen konstruieren sie. Würde aus solcher sozialen Anerkennung auch eine moralische Anerkennung folgen, mit Pflichten und Rechten? Dürften sich Roboter dann z. B. gewerkschaftlich organisieren und für eine 20-Stunden-Woche eintreten? Damit würden wir vielleicht unsere ganzen Erwartungen von einer Entlastung durch Roboter wieder hintertreiben.

In Science-Fiction-Literatur sind ja schon viele sehr relevante Fragen durchgespielt worden. Mir scheint es von zentraler Bedeutung zu sein, dass wir Menschen durch das von uns selbst geschaffene Gegenüber des Roboters auch einiges über uns selbst lernen können. Wir halten uns gleichsam einen Spiegel vor und werden uns nicht immer wohl mit dem fühlen, was wir da sehen – und wir werden uns darüber wohl auch verändern. Dass und wie wir uns durch das technische Gegenüber des Roboters verstehen und verändern, sollte bleibend von dem Gedanken getragen sein, dass wir Menschen Menschen bleiben können. Dass wir also nicht Perfektionsansprüche an den Menschen richten, die wir beim Roboter erleben. Dass wir die leiblich verfasste Einzigartigkeit eines jeden Menschen bewahren und fördern und uns nicht von technischen Optimierungsschritten leiten lassen. Dass wir lernen, die Würde eines jeden Menschen zu respektieren und ihn nicht auf bestimmte Leistungen festlegen.

dv aktuell: Wie müsste der Gesetzgeber den Einsatz von Robotern regeln?
Prof. Dr. Arne Manzeschke:Es gibt die Asimovschen Robotergesetze, die sehr gut die wesentlichen Punkte markieren, die für den Einsatz von Robotern gültig sein sollten: "Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“ Die zweite Regel lautet: "Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren." Die dritte Regel lautet: "Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert."

Diese Regeln im konkreten Einsatz von Robotern umzusetzen, ist alles andere als trivial. Von der EU gibt es einen Vorstoß, sehr leistungsfähigen Robotern einen "elektronischen Personenstatus" zuzuschreiben, um auf diese Weise Haftungsfragen begegnen zu können. Denn diese Roboter werden in Zukunft mehr und mehr Entscheidungen übernehmen, deren Entscheidungsprozeduren vom Menschen nicht mehr verstanden werden können und deshalb einer Überprüfung oder "Aushandlung" mit dem Roboter nicht mehr unterzogen werden können. Wenn dabei Schäden entstehen sollten, sind Hersteller oder Nutzer nur noch bedingt regressbereit, da ja bestimmte Elemente der Entscheidung nicht auf ihren Einfluss ("Programmierung ab Werk" bzw. "Nutzerspezifisches Profil") zurückzuführen sind, sondern auf der Eigentätigkeit der KI beruhen. Das Recht sollte über die Haftungsfragen hinaus einen Rahmen schaffen, in dem die ethischen Erwartungen, die ich oben formuliert habe, umgesetzt und garantiert werden können.

nach oben