01. Aug. 2025
KI-Verhaltenskodex: EU-Abgeordneter warnt vor Rechtsbruch und gezielter Aushöhlung des AI Act
Der Digitalpolitiker und ehemalige Schattenberichterstatter für den AI Act im Europäischen Parlament, Sergey Lagodinsky, übt scharfe Kritik an der finalen Fassung des Verhaltenskodexes für generative KI-Modelle:

„Wir sind zutiefst enttäuscht, dass die endgültige Fassung des Verhaltenskodex zentrale Verpflichtungen des AI Act zur Energietransparenz faktisch aushebelt. In der aktuellen Version können sich Anbieter schlicht von der Berichtspflicht befreien, indem sie behaupten, der beim Training verbrauchte Strom sei mangels kritischer Daten nicht schätzbar.
Das setzt einen gefährlichen Präzedenzfall und verletzt nicht nur den Geist, sondern auch den klaren Wortlaut des Gesetzes. Ich habe daher die Exekutiv-Vizepräsidentin Henna Virkkunen schriftlich aufgefordert, diese rechtswidrige Lücke im Rahmen der laufenden Angemessenheitsprüfung umgehend zu schließen. Sollte die Kommission nicht handeln, trägt sie Mitverantwortung für einen Kodex, der rechtlich nicht haltbar ist und das Vertrauen in die europäische KI-Regulierung untergräbt.“
Hintergrund:
Ab dem 2. August 2025 treten die Vorschriften des AI Act für Anbieter von allgemeinen KI-Modellen (General Purpose AI) in Kraft. Der Verhaltenskodex ist das zentrale Umsetzungsinstrument für die spezifischen Anforderungen an generative KI und soll weltweit als Maßstab für Transparenz, Fairness und Sicherheit dienen.
Die Europäische Kommission veröffentlichte die aktuelle Version des Kodex am 10. Juli 2025, nach einem mehrmonatigen Multi-Stakeholder-Prozess unter Beteiligung unabhängiger Expert*innen. Heute erklärte die Kommission, dass sie den Kodex in seiner jetzigen Form für „angemessen“ hält – trotz gut dokumentierter Lücken in entscheidenden Bereichen wie Energieverbrauch, Transparenz und Kontrolle.
Der Kodex ist in drei Kapitel gegliedert: Transparenz, Urheberrecht sowie Sicherheit und Schutz – letzteres gilt ausschließlich für Anbieter, die innerhalb der EU als systemrelevant eingestuft werden.
Bislang haben OpenAI, Anthropic, Google, Microsoft, Mistral, Aleph Alpha und Cohere zugesagt, den vollständigen Kodex zu unterzeichnen. xAI hat lediglich angekündigt, das Kapitel zu Sicherheit und Schutz zu unterstützen, während Meta erklärt hat, den Kodex überhaupt nicht zu unterzeichnen.
Mehr Informationen
https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice