Artikelaktionen

Sie sind hier: Startseite Online-Magazin forschen & entdecken Umstrittene Helfer

Umstrittene Helfer

Welche Regularien braucht es in der Interaktion zwischen Mensch und Maschine?

Freiburg, 23.01.2019

Umstrittene Helfer

Foto: Linda Bucklin/Shutterstock

Die einen sehen in ihr die Lösung aller Probleme, die anderen malen sich apokalyptische Szenarien aus: Künstliche Intelligenz bringt der Gesellschaft neue Chancen, stellt sie aber auch vor Risiken. Eine Gruppe Freiburger Wissenschaftlerinnen und Wissenschaftler wird sich ein Jahr lang damit auseinandersetzen, was passiert, wenn Mensch und Maschine interagieren. Die Forschenden aus der Neurotechnik, Informatik, Robotik, Rechtswissenschaft und Philosophie wollen Fragen zu normativen und philosophischen Grundlagen sowie ethische, rechtliche und soziale Herausforderungen erörtern.

Ethische, rechtliche und soziale Herausforderungen: Freiburger Forschende setzen sich mit Fragen zur Interaktion zwischen Menschen und Künstlicher Intelligenz auseinander.
Foto: Linda Bucklin/Shutterstock

Vor knapp einem Jahr hat Facebook eine neue Funktion vorgestellt: Ein Algorithmus soll erkennen, ob eine Nutzerin oder ein Nutzer suizidgefährdet ist. Das „Präventionstool“, wie es die Entwicklerinnen und Entwickler bezeichnen, durchforstet dafür Posts, Videos und Kommentare der Mitglieder nach Signalwörtern, die eine vermeintliche Selbstmordabsicht erkennen lassen. Hat das System einen auffälligen Beitrag entdeckt, informiert es Mitarbeitende der Plattform, die im Ernstfall Angehörige oder Ersthelferinnen und Ersthelfer kontaktieren. Polizei oder Sanitätsdienst könnten also kurze Zeit später an der Tür des betreffenden Nutzers klopfen. Und das, weil eine künstliche Intelligenz eine hohe Wahrscheinlichkeit für ein Selbstmordrisiko berechnet hat.

Der Algorithmus wird bisher nur in den USA eingesetzt, doch Facebook hat angekündigt, ihn künftig auch weltweit anzuwenden – außer in der Europäischen Union, wahrscheinlich aus rechtlichen Gründen. „Was aus diesen Analysen folgt, ist ein weitreichender Eingriff in die persönliche Freiheit, und je spezifischer solche Voraussagen werden, desto mehr grenzen sie Rechte ein“, sagt Dr. Philipp Kellmeyer.

Unklare Verantwortung

Für den Neurowissenschaftler ist der Algorithmus von Facebook ein Beispiel für die Herausforderungen, die mit der Entwicklung Künstlicher Intelligenz (KI) auf die Gesellschaft zukommen. Mit dem Informatiker und Robotiker Prof. Dr. Wolfram Burgard, der Rechtswissenschaftlerin Prof. Dr. Silja Vöneky und Prof. Dr. Oliver Müller vom Philosophischen Seminar der Universität Freiburg hat sich Kellmeyer in einem Forschungsschwerpunkt am Freiburg Institute for Advanced Studies (FRIAS) zusammengetan. Ein Jahr lang wird sich das Team mit Fragen zu normativen und philosophischen Grundlagen sowie ethischen, rechtlichen und sozialen Herausforderungen der Interaktion von Menschen und KI auseinandersetzen. Der Forschungsschwerpunkt „Verantwortliche Künstliche Intelligenz – Normative Aspekte der Interaktion von Mensch und intelligenten Systemen“ wird den Ausgangspunkt und Kern weiterer Projekte bilden, an denen unter anderem Forschende des Exzellenzclusters BrainLinks-BrainTools, im Forschungsneubau Intelligent Machine-Brain Interfacing Technology (IMBIT) ansässige Wissenschaftlerinnen und Wissenschaftler sowie internationale Fellows des FRIAS mitarbeiten werden.

Kellmeyers Fokus liegt dabei auf dem Einsatz von KI in der Medizin und der Neurotechnologie: Künftig könnten intelligente Assistenzsysteme Diagnosen oder Behandlungsstrategien vorschlagen und damit die Arbeit von Ärztinnen und Ärzten unterstützen – erste Pilotprojekte laufen bereits. Auch in der Therapie könnten intelligente Roboter zum Einsatz kommen, beispielsweise als Rehabilitationshelfer für Patientinnen und Patienten, die einen Schlaganfall erlitten haben. Und an der Universität Freiburg arbeiten Wissenschaftler aus der Robotik, der Neurowissenschaft und der Mikrosystemtechnik an so genannten Mensch-Maschine-Schnittstellen: Sie werten Impulse des Gehirns aus, die über Elektroden gemessen werden, und übermitteln sie an eine Prothese. „Wenn wir bestimmte Fähigkeiten an KI übertragen, stellt sich das Problem der Verantwortungszuschreibung“, sagt Kellmeyer. Im Falle einer Fehlentscheidung des Systems fehle die Instanz, die sich dafür rechtlich zur Verantwortung ziehen ließe. „Auf der moralischen und regulatorischen Ebene stellt sich deshalb die Frage, ob die aktuellen technischen Möglichkeiten oder auch juristische Instrumente zur Eingrenzung der KI und zur Schadensbegrenzung ausreichend sind.“

Mensch-Maschine-Schnittstellen werten Impulse des Gehirns aus, die über Elektroden gemessen werden, und übermitteln sie an eine Prothese. Foto: Martin Völker/AG Ball

Mensch als letzte Instanz

Bisher sind Roboter so programmiert, dass sich nachvollziehen lässt, warum sie auf eine bestimmte Weise handeln. Ähnlich wie die bei Flugzeugen eingesetzten Datenschreiber, so Kellmeyer, geben die Protokolle des Systems Aufschluss über seine Aktionen. „Wenn der zugrunde liegende Algorithmus, der das System steuert, eine Art von analytischer Intelligenz hat und das System sich über die Zeit verändert, ist es jedoch schwer vorauszusagen, wie es sich verhalten wird.“ Dem Kontrollverlust ließe sich technisch ein Riegel vorschieben: Zur Debatte steht die Möglichkeit, dass der Mensch als letzte Instanz auftritt, die das Handeln der Maschine unterbrechen kann. „Human-in-the-loop“ wird dieses Prinzip genannt, bei der eine Person an entscheidender Stelle die Möglichkeit hat, in eine von der KI vorgegebene Handlung einzugreifen.

Dies wird insbesondere im Kontext autonomer Waffensysteme erforscht. „Dabei zeigte sich zuletzt in Studien, dass eine Art Abnutzungseffekt bei Menschen eintrat, die die Empfehlung eines Systems überprüfen mussten; sie hinterfragten die Entscheidung nicht mehr, sondern stimmten einfach per Knopfdruck zu“, erläutert Kellmeyer. Ähnliches könnte auch bei medizinischen Empfehlungssystemen passieren, fürchtet er: „Vielleicht würde auch die Fähigkeit des Arztes, eine Entscheidung kritisch zu hinterfragen, abnehmen. Entweder weil es bequemer ist, der Maschine zu vertrauen, oder weil der Arzt, der nicht alle Blutbilder eines Patienten aus den letzten zehn Jahren überblicken kann, gegenüber der Maschine an seine analytischen Grenzen stößt.“

Es werden Stimmen laut, die neben einer technischen Lösung auch einen neuen rechtlichen Rahmen und neue juristische Instrumente für den Einsatz von KI fordern. So wird im Hinblick auf Gehirn-Computer-Schnittstellen die Etablierung so genannter Neurorechte diskutiert. Systeme, die Einstellungen und Vorlieben des Menschen oder andere persönliche Informationen aus Hirndaten auslesen können, wären auf diese Weise in ihren Anwendungsmöglichkeiten eingeschränkt. Auch die kommerzielle Nutzung solcher Daten durch Unternehmen würde eingegrenzt. Facebook beispielsweise hat auch ein Auge auf Schnittstellen geworfen, mit denen sich die Hirnaktivität direkt in Nutzereingaben übersetzen lässt. Unter dem Motto „So what if you could type directly from your brain?“ hat das Unternehmen 2017 seine Forschungsabsichten auf dem Gebiet vorgestellt.

Ein Roboter beglückwünscht einen Schlaganfall-Patienten, weil dieser farbige Becher nach Vorgabe korrekt sortiert hat. Foto: Shelly Levy-Tzedek

Rechtlicher Schutz von Daten

Für Kellmeyer wird dabei vor allem die Intransparenz zum Problem: „Es ist völlig unklar, was mit den riesigen Datenmengen passiert, die dabei gesammelt werden. Was passiert beispielsweise, wenn in diesen Hirndaten sensible persönliche Informationen versteckt sind, die auf eine Erkrankung wie Epilepsie hinweisen?“ Ein spezieller rechtlicher Schutz von Daten, die Informationen zum Gesundheitszustand eines Menschen enthalten, wäre denkbar: „Künftig könnte ein Algorithmus voraussagen, ob ein Mensch in nächster Zeit eine depressive Episode erleiden wird, weil der Algorithmus zuvor dessen Textbeiträge sowie sein Surfverhalten analysiert und darüber hinaus vielleicht noch verzeichnet hat, wie oft er das Haus verlässt. Solche Erhebungen müssten dann aber als biomedizinische Daten betrachtet werden“, meint Kellmeyer. Traditionell fallen unter den Begriff Werte aus medizinischen Untersuchungen, wie sie sich beispielsweise beim Blutabnehmen oder Blutdruckmessen ergeben – doch mit der Entwicklung von KI könnte diese Definition überholt sein.

Diese Fragen könne keine Disziplin allein beantworten, resümiert Kellmeyer mit Blick auf die Arbeit im Team am FRIAS. „Wenn man sich die Anwendungsmöglichkeiten von KI-Systemen ansieht, wird deutlich, welche Herausforderungen in den nächsten Jahren auf uns zukommen werden.“ Das Ziel des neuen Forschungsschwerpunkts sei deshalb, sich diesen Herausforderungen frühzeitig mit allen gesellschaftlichen Akteuren zu widmen und lösungsorientiert zu arbeiten. Dabei stehe die Verantwortung im Umgang mit KI als zentrales Konzept im Vordergrund. Verschiedene Disziplinen könnten ihre Expertise zu dem Thema beitragen, und auch für den Austausch mit der Öffentlichkeit sowie zu Fragen der politischen Steuerung böten sich Anknüpfungspunkte. „Im öffentlichen Diskurs gibt es momentan Menschen, die angesichts von KI apokalyptische Szenarien entwickeln. Das ist meiner Meinung nach nicht sachdienlich“, sagt Kellmeyer. „Genauso wenig ist es aber der Glaube, dass KI-Systeme die Lösung für all unsere Probleme sind. Die Wahrheit liegt irgendwo dazwischen.“

Sonja Seidel