Verbotene KI-Anwendungen
Nicht jede Form von KI-Anwendungen ist erlaubt. Der EU AI Act verbietet bestimmte Anwendungen vollständig. Beispiele dafür sind Social Scoring, bei dem Menschen aufgrund ihrer Verhaltensweise bewertet werden, oder biometrische Überwachung in Echtzeit. Auch Systeme, die Emotionen am Arbeitsplatz auslesen oder Mitarbeiterinnen und Mitarbeiter manipulativ beeinflussen sollen, sind untersagt.
Unternehmen müssen deshalb genau analysieren, wozu ihre eingesetzten Tools in der Lage sind und ob diese Funktionen rechtlich zulässig sind.
Technologien, die sogenannte „unvertretbare Risiken“ bergen, betreffen den Kernbereich der Persönlichkeitsrechte. Werden sie dennoch eingesetzt, drohen hohe Bußgelder und Reputationsschäden.
Besonders problematisch ist, dass viele KI-Anwendungen nicht auf den ersten Blick als verbotene Systeme erkennbar sind. Sie sind häufig Teil größerer Softwarelösungen und werden erst im Betrieb auffällig. Dies kann z. B. bei Kameras oder Analyse-Tools vorkommen.

Unternehmen sollten daher interne Prüfprozesse etablieren, um alle Funktionen der von ihnen eingesetzten KI-Anwendungen systematisch zu evaluieren.
Eine regelmäßige Schulung der Fachabteilungen hilft dabei, potenziell kritische Funktionen frühzeitig zu identifizieren und richtig einzuordnen.
Letztlich geht es nicht nur um gesetzliche Verbote, sondern auch um ethisches Handeln und die Wahrung des Vertrauens von Mitarbeiterinnen, Mitarbeitern, Kunden und Öffentlichkeit.
Um verbotene Funktionen zu identifizieren, reicht es oft nicht aus, sich nur auf die Selbstauskunft eines Anbieters zu verlassen. Viele KI-Tools verfügen über umfassendere Analysefunktionen, als auf den ersten Blick offensichtlich ist (z. B. zur Gesichtserkennung oder Verhaltensbeobachtung).
Unternehmen sollten daher technische Prüfverfahren entwickeln oder externe Expertise einholen, um solche versteckten Features zu erkennen. Eine systematische Bewertung hilft dabei, rechtliche Grauzonen zu vermeiden, denn der EU AI Act verbietet nicht nur bestimmte Einsatzzwecke, sondern auch manipulative Systeme, die nicht sofort als solche erkennbar sind.
Letztlich geht es darum, KI so einzusetzen, dass sie Menschen unterstützt, aber niemals kontrolliert, täuscht oder unter Druck setzt.
