KI-Verordnung mit gewollten Lücken
Kritiker monieren, die in der vergangenen Woche verabschiedete KI-Verordnung der EU lasse Konzernen und Repressionsapparaten große Schlupflöcher, erlaube ortsbezogenes „Protective Policing“ und KI-gesteuerte Echtzeitüberwachung.
Scharfe Kritik begleitet die Verabschiedung der neuen KI-Verordnung der Europäischen Union. Das Gesetzespaket ist vergangene Woche vom Rat der EU endgültig abgesegnet worden. Vorausgegangen waren jahrelange intensive Verhandlungen, bei denen nicht zuletzt IT-Riesen wie Google oder Microsoft ihre Interessen durchzusetzen suchten; Beobachter monierten eine der „größten Lobbyschlachten“ in der Geschichte der EU. Entgegen der Behauptung, Brüssel habe sich vor allem um den Schutz der Bürger bemüht, sicherten die Mitgliedstaaten ihren Repressionsapparaten recht ausgedehnte Möglichkeiten zur Nutzung von KI, vor allem zu Zwecken der Strafverfolgung oder der Flüchtlingsabwehr. So darf etwa ortsbezogenes „Predictive Policing“ weiter betrieben werden, obwohl es Kritikern zufolge vor allem dazu führt, Stadtteile und Regionen, in denen finanzschwache Minderheiten leben, verschärfter Überwachung und Kontolle zu unterwerfen. Sogar KI-gesteuerte Überwachung in Echtzeit darf bei bloßer Annahme einer Gefahrenlage genehmigt und praktiziert werden. Kritiker urteilen, vor allem Deutschland und Frankreich hätten diverse Schlupflöcher und Leerstellen in der Regulierung durchgesetzt.
„Gelungene Balance”
In der vergangenen Woche hat die EU nach langem parlamentarischen Tauziehen ein umfassendes Gesetzespaket verabschiedet, das den rasch expandierenden Technologiekomplex der Künstlichen Intelligenz (KI) regeln soll. Deutsche Minister hatten schon im Februar die europäische KI-Verordnung nach ihrer einstimmigen Verabschiedung im Ausschuss der Ständigen Vertreter (AStV) des Rates der Europäischen Union einhellig begrüßt.[1] Der Bundesminister für Wirtschaft und Klimaschutz, Robert Habeck (Bündnis 90/Die Grünen), sprach von einer „gelungenen Balance“ zwischen der Hebung des „Potenzials der KI“ und der der Begrenzung der Risiken dieser Technologie, die durch ihre „Innovationsfreudigkeit“ dafür sorgen werde, dass sich Europa zu einem „starken KI-Standort“ entwickle. Laut Marco Buschmann (FDP), Bundesminister für Justiz, habe die KI-Verordnung den legislativen Weg für „einen sicheren Rechtsrahmen“ geebnet, der „Innovation fördert und gleichzeitig Risiken in der Anwendung angemessen adressiert“. International sei dieser Rechtsrahmen ein „Novum“, erklärte Buschmann. Die Vorordnung stelle sicher, dass die „Grundrechte und die Sicherheit der Bürgerinnen und Bürger der EU respektiert“ würden, hieß es in der Stellungnahme der Bundesregierung, die hinsichtlich der KI-Verordnung von einer „Produktregulierung“ sprach, die sich „nicht auf Forschungs- und Entwicklungsaktivitäten“ beziehe. Die ab Frühjahr 2026 geltenden Regeln sehen etwa eine Kennzeichnungspflicht für KI-generiertes Material (Texte, Bilder, Töne, Videos) vor.[2]
„Predictive Policing“
In offenem Widerspruch zum Lob der Bundesregierung mehren sich längst kritische Stimmen, die vor den Gefahren, Ausnaheregelungen und Leerstellen in der Verordnung warnen. Ende Mai 2024 etwa wies das Portal netzpolitik.org darauf hin, Polizeibehörden in der EU könnten mithilfe Künstlicher Intelligenz versucht sein, sogenanntes Predictive Policing zu praktizieren.[3] Dabei werden riesige Datenmengen aus der Kriminalitätsstatistik von KI-Systemen ausgewertet, um Wahrscheinlichkeiten für künftige Gesetzesbrüche zu ermitteln. Hierdurch soll theoretisch die „präventive“ Polizeitätigkeit perfektioniert werden. In der Praxis haben solche Ansätze – etwa in den USA – vor allem zur systemischen Diskriminierung von Minderheiten in sozialen Brennpunkten geführt, da statistische Rückkopplungseffekte zu einer Fokussierung der Polizeikräfte auf solche „Hot-Spots“ führen. Die europäische KI-Verordnung solle diesen Formen diskriminierender KI-Anwendung durch die Polizei, die mit dem Aufbau von „intransparenten und womöglich ungerechten Strukturen“ einhergingen, eigentlich entgegenwirken, heißt es in dem Beitrag; in Wirklichkeit aber weise sie eine „bedrohliche Leerstelle“ auf.
Finanzschwache Minderheiten im Visier
Denn von regierungsnahen deutschen Medien verbreitete Behauptungen, wonach die KI-Verordnung die Anwendung von „Predictive Policing“ verbiete [4], seinen nicht voll zutreffend, warnt netzpolitik.org. So sei der Begriff „Predictive Policing“ in der KI-Verordnung ausgeklammert worden; stattdessen finde sich eine Passage, die faktisch personenbezogenes „Predictive Policing“ verbiete. Dabei erstellen KI-Systeme – etwa das amerikanische COMPAS-System – einen kriminalistischen „Riskoindex“ von Einzelpersonen, die dann verschärfter Überwachung oder Repression ausgesetzt sein können. In der EU-Verordnung gänzlich ausgeklammert wird aber das ortsbezogene „Predictive Policing“, bei dem KI-Systeme Risikoanalysen von „Kriminalitätsschwerpunkten“ erstellen sollen. Dabei werden wiederum vor allem Stadtteile und Regionen, in denen finanzschwache Minderheiten leben, zum Ziel verschärfter Überwachung und Kontrolle. Gerade in der Bundesrepublik sei die Anwendung solcher ortsgebundener KI-Systeme, die aus kriminologischen Statistiken künftige Kriminalitätswahrscheinlichkeiten ableiten sollten, „nicht einheitlich geregelt“, heißt es. In etlichen Bundesländern befinde sich das ortsbezogene „Predictive Policing“ bereits im „Regelbetrieb“; woanders sei es noch in der „Testphase“. KI-Software zur präventiven Polizeiarbeit werde entweder von „Privatunternehmen erworben“ oder von den Behörden eigenständig entwickelt.
„Große Schlupflöcher“
Schon im März 2024 hieß es in einem kritischen Hintergrundbericht [5], die KI-Verordnung weise „große Schlupflöcher für Behörden und Unternehmen“ auf. Der drei Jahre andauernde Formungsprozess des Gesetzespakets sei in einer der „größten Lobbyschlachten“ in der legislativen Geschichte der EU kulminiert, in die nicht zuletzt IT-Giganten wie Google und Microsoft Millionensummen investiert hätten. Bestimmte besonders umstrittene Praktiken konnten tatsächlich verboten werden, etwa das „Social Scoring“, bei dem KI-Systeme das Verhalten von Bürgern auswerten und auf unerwünschte Abweichungen untersuchen. Doch in vielen Fällen seien Schlupflöcher und Leerstellen geblieben, was vor allem auf die Blockadehaltung Deutschlands und Frankreichs zurückzuführen sei, heißt es – etwa bei großen Sprachmodellen wie GTP-4, die anhand großer Datenmengen flexibel für verschiedene Anwendungen „trainiert“ werden könnten.[6] Der Grund für die deutsch-französische Blockade: In beiden Ländern arbeiten Start-ups an diesen Formen der KI, um den Rückstand zu der US-Konkurrenz aufzuholen.
Biometrische Überwachung in Echtzeit
Hinzu kommen lockere Regelungen zur automatisierten Entscheidungsfindung mittels Künstlicher Intelligenz (etwa bei Behörden) sowie zum Einsatz von KI-Systemen zwecks Kontrolle und Überwachung. Die EU-Verordnung bringe „kein Verbot, nicht einmal besonders strenge Regeln für den Einsatz biometrischer Überwachung“, heißt es bei netzpolitik.org; von den „einst starken Forderungen des Parlaments“ zum Schutz vor Überwachung sei kaum etwas übriggeblieben. Die EU-Staaten dürften künftig also Menschen „aus vielen Gründen“ anhand ihrer körperlichen Merkmale mittels KI identifizieren und überwachen. Hierzu können die bereits überall installierten Überwachungskameras benutzt werden – selbst in Echtzeit. Zur Begründung genügen die bloße Annahme einer Gefahrenlage („Terrorismus“, „Menschenhandel“) und eine entsprechende richterliche Anordnung.[7] Die wenigen Einschränkungen bei KI-gestützter Gesichtserkennung gelten nicht für Grenzkontrollen; Flüchtlinge profitieren also von der KI-Verordnung nicht. Auch umstrittene Technologien wie die automatisierte Emotionserkennung und Lügendetektoren können in der EU künftig zur Anwendung gelangen – etwa an Grenzübergängen. Bei „Strafverfolgung, Migration, Grenzkontrolle und Asyl“ gelten nicht einmal die Transparenzverpflichtungen zum Einsatz von KI-Systemen.
„Innovationsfreundlich nachsteuern“
Trotz der zahlreichen Ausnahmen zeigten sich deutsche Branchenverbände skeptisch. Der Digitalverband Bitkom etwa monierte Mitte März, die KI-Verordnung lasse „viele Fragen offen“; Deutschland benötige eine „innovationsfreundliche Umsetzung“.[8] Die Bundesregierung dürfe das „nationale Regulierungskorsett“ nicht „so eng schnüren, dass den Unternehmen der Freiraum für Innovationen“ fehle. Vor allem gelte es für Berlin, nach der nationalen Implementierung der KI-Verordnung sich rasch „pro-aktiv in die Gestaltung des EU AI Board“ einzubringen, das weitere einheitliche europaweite KI-Regeln gestalten soll. Hierdurch solle verhindert werden, dass in Europa ein „Flickenteppich an nationalstaatlichen Einzelregelungen“ entstehe. Bundesdigitalminister Volker Wissing (FDP) versprach, die Bundesregierung werde in dieser Hinsicht aktiv bleiben.[9] Man könne nicht erwarten, dass eine sich dermaßen rasch entwickelnde Technologie eine abschließende Regulierung gefunden habe. Berlin werde „den Mut haben, kontinuierlich nachzusteuern“, erklärte Wissing, wobei man die Innovationsfreundlichkeit der Regeln immer im Blick haben werde. In der Tat ist etwa die Ausklammerung von Allzweck-KI wie ChatGTP aus den strengeren EU-Regelungen für Hochrisiko-KI-Anwendungen insbesondere auf Betreiben Berlins erfolgt.
[1] Rahmen für Künstliche Intelligenz in der EU steht: KI-Verordnung einstimmig gebilligt. bmwk.de 02.02.2024.
[2] KI-Gesetz ist endgültig beschlossen. tagesschau.de 21.05.2024.
[3] Gefährliche Lücke in der KI-Verordnung. netzpolitik.org 27.05.2024.
[4] European Parliament gives final approval to landmark AI law. dw.com 13.03.2024.
[5] EU-Parlament macht Weg frei für KI-Verordnung. netzpolitik.org 13.03.2024.
[6] Deutschland will Basis-Modelle wie ChatGPT nicht regulieren. netzpolitik.org 21.11.2023.
[7] KI-Gesetz ist endgültig beschlossen. tagesschau.de 21.05.2024.
[8] Beim AI Act sind noch viele Fragen offen. bitkom-consult.de 13.03.2024.
[9] KI-Gesetz ist endgültig beschlossen. tagesschau.de 21.05.2024.
german-foreign-policy.com