Magazine ed*
ed* Nr. 01/2019

Machtgefüge Mensch vs. Maschine – wer kontrolliert wen?

ed* Nr. 01/2019 – Kapitel 4

Die Entwicklungen und Beispiele zeigen: Das enorme Potenzial von KI verschiebt zugleich das Machtgefüge zwischen Mensch und Maschine. Dem gefühlten „Ausgeliefertsein“ ist nur mit Transparenz von KI zu begegnen. Was wie Science-Fiction klingt, die Verhinderung der „Machtübernahme durch Algorithmen“, ist längst Gegenstand der Diskussionen in Wissenschaft und Politik, auch auf europäischer Ebene. So hat das Europäische Parlament die Entschließung „Eine umfassende europäische Industriepolitik in Bezug auf Künstliche Intelligenz und Robotik“ veröffentlicht. Es fordert darin, dass Menschen ein Recht auf Auskunft, Beschwerde und Entschädigung haben sollten, wenn KI bei Entscheidungen eingesetzt wird, die ein erhebliches Risiko für die Rechte und Freiheiten des Einzelnen darstellen oder ihm einen Schaden zufügen können.1 Dahinter steckt die Befürchtung, dass die Fähigkeit der KI-Systeme zum Umgang mit komplexen Datensätzen und das autonome Lernen dazu führen könnten, dass die von ihnen getroffenen Entscheidungen nicht mehr erklärbar und von Menschen nicht mehr sinnvoll kontrollierbar sind. Im Bereich der Sozialversicherung könnte dies möglicherweise erhebliche Folgen für die Versicherten haben. Es geht also um eine angemessene menschliche Kontrolle der KI und welche rechtlichen und ethischen Rahmenbedingungen nötig sind, um diese zu gewährleisten.

Alexandre DebieveLassen sich algorithmische Systeme noch kontrollieren?

Das Europäische Parlament betont in der genannten Entschließung, dass bei der Entwicklung von KI-Systemen die Grundsätze der Transparenz und Rechenschaftspflicht in Bezug auf die verwendeten Algorithmen geachtet ­werden müssten, sodass deren Tätigkeiten für Menschen zu verstehen seien.2 Allerdings stellt dies ein Problem dar, denn es ist längst nicht mehr nur die „breite Öffentlichkeit“, der es am Verständnis dafür fehlt, wie algorithmische Systeme funktionieren. Zu diesem Ergebnis kommt auch eine Studie, in der verschiedene politische Maßnahmen für eine entsprechende Transparenz und Rechenschaftspflicht vorgeschlagen werden.3 Es wird eine Bewusstseinsbildung und die Erweiterung von Kompetenzen gefordert, um das Funktionieren algorithmischer Systeme und deren grundlegende Auswahl- und Entscheidungskriterien besser zu verstehen. Weitere Maßnahmen betreffen die Transparenz und Verantwortlichkeit bei der Verwendung solcher Entscheidungen im öffentlichen Sektor, wozu sich auch die Sozialversicherungsträger rechnen lassen. Hier soll eine „algorithmische Folgenabschätzung“ helfen zu erklären, wo solche Systeme eingesetzt werden, und die beabsichtigte Verwendung und Implementierung bewerten.


Der finanzielle und administrative Aufwand einer solchen Folgenabschätzung könnte im privaten, kommerziellen Sektor jedoch unangemessen sein, insbesondere bei nicht risikobehafteten, kleineren Anwendungen. Hier wird die Schaffung eines rechtlichen Haftungsrahmens vorgeschlagen, der reduzierte Anforderungen an Transparenz und Folgenabschätzung im Gegenzug für eine weiterreichende Haftung vorsieht. Zur Umsetzung wird die Einrichtung einer Regulierungsbehörde vorgeschlagen, mit Fachkenntnissen in der Analyse algorithmischer Systeme und einem Netzwerk externer beratender Expertinnen und Experten.