
Künstliche Intelligenz
Neue Regeln für Umgang mit KI in Kraft getreten.
PP – 02/2025
Seit dem 2. Februar gelten in der Europäischen Union (EU) die ersten Regelungen im Umgang mit Künstlicher Intelligenz (KI). Diese Regeln setzen klare Standards für die Nutzung und Entwicklung von KI. Sie beinhalten unter anderem die Definition von KI-Systemen, Anforderungen an die KI-Kompetenz von Mitarbeitenden sowie das Verbot bestimmter KI-Systeme und sollen den Schutz von Grundrechten und ethischen Prinzipien im Umgang mit KI sicherstellen.
Risikobasierter Ansatz zur Gefährdungsbeurteilung
Die Regelungen des KI-Gesetzes folgen einem risikobasierten Ansatz. KI-Systeme werden abhängig von ihrer Gefahr für Sicherheit und Grundrechte der Bürgerinnen und Bürger in unterschiedliche Kategorien eingestuft. KI-Anwendungen, die eindeutige Bedrohungen für Sicherheit, Lebensunterhalt und Grundrechte darstellen, gelten als inakzeptables Risiko und sind verboten. Hochrisiko-KI-Systeme, die in kritischen Bereichen wie Justiz, Gesundheits- oder Personalwesen eingesetzt werden, sind unter strengen Sicherheits- und Transparenzanforderungen hingegen erlaubt. KI-Systeme, die ein begrenztes Risiko darstellen, müssen als solche klar erkennbar sein, um Täuschungen zu vermeiden. Anwendungen mit nur minimalem Risiko unterliegen hingegen kaum Regulierungen.
Besondere Anforderungen an KI nutzende Unternehmen
Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen diese seit dem 2. Februar nach ihrem Risikograd bewerten und geeignete Maßnahmen
ergreifen, um den gesetzlichen Anforderungen gerecht zu werden. Zu diesen
Anforderungen gehören unter anderem Transparenzpflichten, sodass Nutzende
informiert werden, wenn sie mit einer KI interagieren. Ferner sind Unternehmen
dazu verpflichtet, nachvollziehbar darzulegen, wie ihre KI-Systeme
funktionieren. Hochrisiko-KI darf beispielsweise nicht vollständig autonom
Entscheidungen treffen, sondern erfordert menschliche Aufsicht. Zudem müssen
Mitarbeitende, die mit KI-Systemen arbeiten, für den sicheren Umgang mit KI-Technologien
geschult werden. Ziel dieser Anforderungen ist die Sicherstellung des
verantwortungsvollen Einsatzes von KI.
Leitlinien zur Risikobewertung veröffentlicht
Ergänzend hat die Kommission nicht rechtsverbindliche Leitlinien veröffentlicht, welche die Verbote bestimmter KI präzisieren.
Untersagt sind somit beispielsweise Emotionserkennung am Arbeitsplatz, Social
Scoring oder manipulative KI. Unter manipulativer KI werden solche Systeme
verstanden, die unterbewusste Reize oder gezielte Täuschungen einsetzen. Durch
diese Leitlinien soll den Unternehmen die Risikobewertung ihres KI-Systems
erleichtert und eine einheitliche Auslegung des KI-Gesetzes in der EU erreicht
werden.
Hohe Strafen bei Verstößen gegen das KI-Gesetz
Unternehmen, die gegen die neuen Regelungen verstoßen, müssen mit hohen
Strafen rechnen. Je nach Schwere des Verstoßes können Bußgelder von bis zu 35
Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes verhängt
werden. Hierdurch soll sichergestellt werden, dass KI-Technologien in der EU
verantwortungsvoll und im Einklang mit europäischen Werten genutzt werden.
Gemischte Reaktionen auf neue Regeln
Während einige Expertinnen und Experten die Regelungen begrüßen, um
Rechtssicherheit für Unternehmen zu schaffen, äußern andere Bedenken
hinsichtlich möglicher Interpretationsspielräume und der praktischen Umsetzung.
Insbesondere für kleine und mittlere Unternehmen stellen die Anforderungen
große Herausforderungen dar. Zudem wird diskutiert, inwieweit die Regelungen
die rasante Entwicklung von KI beeinträchtigen. Einige Stimmen fordern daher
eine regelmäßige Aktualisierung, um die Regelungen an die Entwicklung
anzupassen und Innovation nicht zu behindern. Insgesamt markieren die Regelungen
einen bedeutenden Schritt in der europäischen KI-Regulierung. Es bleibt jedoch
abzuwarten, inwieweit sie in der Praxis umgesetzt und welche Auswirkungen sie
auf die Entwicklung und den Einsatz von KI in der EU haben werden.