Magazine ed*
ed* Nr. 02/2024

Was ergibt sich aus dem KI-Gesetz für die Sozialversicherung?

ed* Nr. 02/2024 – Kapitel 4

Mit Blick auf die Nutzung von KI-Systemen durch die Sozialversicherungsträger lässt sich resümierend festhalten, dass sich diese bisher beschränkt auf eher einfache Systeme, die die Mitarbeitenden im Arbeitsalltag unterstützen und entlasten. Die ultimative Entscheidung wird immer von Menschen getroffen. Auch mit Blick auf solche KI-Systeme mit niedrigerem Risiko ergibt sich gegebenenfalls Handlungsbedarf aus dem KI-Gesetz. So müssen bereits genutzte KI-Systeme gegenüber der Nutzerin oder dem Nutzer transparent gemacht werden, insbesondere bei Anwendungen, die die menschliche Interaktion betreffen. Hierzu zählen beispielsweise KI-basierte Chatbots.


In die Kategorie der Hochrisiko-KI-Systeme fallen dagegen bislang keine von einzelnen Sozialversicherungsträgern genutzte Anwendungen. Dies könnte sich in Zukunft allerdings ändern, wenn etwa maschinelle Lernverfahren für die Prüfung eines Leistungsanspruchs eingesetzt werden. In den Niederlanden ist ein KI-Projekt in der Entwicklungsphase, um Vorhersagen zu veränderten Lebensbedingungen von Versicherten zu treffen. Automatisierte Benachrichtigungen sollen an die Überprüfung von etwaigen Änderungen erinnern, um so Leistungen an die Lebensumstände anpassen und passgenauer gestalten zu können. Auch der Verwaltungsaufwand seitens der Versicherungsträger ließe sich so reduzieren.1

In Belgien und Estland ist die automatisierte Entscheidungsfindung im Bereich der

Arbeitslosenversicherung bereits teilweise erlaubt.

Noch weiter sind Estland und Belgien, wie Anwendungsbeispiele aus dem Bereich der Arbeitslosenversicherung zeigen. In Estland erlaubt das Gesetz eine automatisierte Entscheidungsfindung, um Arbeitslosengeld zuzuweisen oder abzulehnen. Dabei wird ein KI-System genutzt, um Informationen in Anträgen auf ihre Richtigkeit zu überprüfen, und um sowohl negative als auch positive Bescheide auszustellen. Auch in Belgien läuft die Überprüfung von Arbeitslosengeldanträgen teilweise automatisiert. Allerdings werden in Belgien nur positive Bescheide KI-basiert ausgestellt. Ablehnende Bescheide werden vor Zustellung von einer Mitarbeiterin oder einem Mitarbeiter geprüft.


Die ausgewählten Beispiele zeigen deutlich: KI entwickelt sich rasant und genauso schnell erweitern sich die Möglichkeiten der Anwendung im Bereich der sozialen Sicherheit. Vor diesem Hintergrund werden sich die Sozialversicherungsträger als Betreiber von KI-Systemen von nun an kontinuierlich mit den Regelungen des KI-Gesetzes auseinandersetzen müssen.

Herausforderungen von KI in der Sozialversicherung

Grundsätzlich setzt die Anwendung von KI in der Verwaltung von öffentlichen Diensten – von simplen KI-Bots bis zu Systemen, die bei Leistungsentscheidungen assistieren – die Beschäftigung von KI-Expertinnen und Experten voraus. Denn die Instandhaltung von KI-Systemen ist aufwendiger als die herkömmlicher Software; sie muss kontinuierlich gewartet und aktualisiert werden. Dies ergibt sich einerseits aus der ­Notwendigkeit, rechtliche Vorschriften, wie sie sich durch das KI-Gesetz ergeben, einzuhalten. Andererseits ist es gerade bei sensiblen, für die Sozialversicherung relevanten Daten unerlässlich, die KI im Blick zu behalten und potenziellen ­Diskriminierungen entgegenzuwirken.


Eine zweite zentrale Herausforderung beim Einsatz von KI in der Sozialversicherung betrifft moralische Überlegungen zu Werten, Normen und Prinzipien. Hinweise und Entscheidungen von KI-Systemen, die etwa bei der Auswertung von Leistungs- oder Erstattungsanträgen assistieren, klassifiziert das KI-Gesetz nicht zu Unrecht als Hochrisiko-Systeme, da sie sich unmittelbar auf den Zugang der Menschen zu essenziellen Dienstleistungen auswirken. Dem muss durch die Gewährleistung ethischer Entscheidungsfindung Rechnung getragen werden, was eine Risikoabwägung im Voraus, Transparenz über den Einsatz und die Arbeitsweise des KI-Systems sowie die Gewährleistung seiner Sicherheit für die betroffenen Menschen voraussetzt. Wenn es um die Entscheidungsfindung selbst geht, muss eine Vorbelastung des KI-Systems ausgeschlossen werden. Dazu ist das Training des zugrunde liegenden KI-Modells anhand passender Daten von entscheidender Bedeutung.