2. Februar 2025
Bereits aktiv - verbotene KI-Praktiken werden durchgesetzt
Unzulaessige Hochrisiko-Nutzungen muessen sofort abgeschaltet werden (z. B. Social Scoring, manipulative KI oder Emotionserkennung in Schule/Arbeitsplatz).
EU KI-Verordnung
Die EU KI-Verordnung ist kein Zukunftsthema mehr. Fuer verbotene Praktiken drohen Bussgelder bis zu 35 Mio. EUR oder 7 % des globalen Jahresumsatzes. Bei Verstoessen im Hochrisiko-Bereich drohen bis zu 15 Mio. EUR oder 3 %. Diese Seite uebersetzt Gesetzestext in konkrete Betriebs- und Umsetzungsrisiken.
Max. Strafe
EUR 35M / 7%
Hochrisiko-Strafe
EUR 15M / 3%
Volle Durchsetzung
02 Aug 2026
2. Februar 2025
Bereits aktiv - verbotene KI-Praktiken werden durchgesetzt
Unzulaessige Hochrisiko-Nutzungen muessen sofort abgeschaltet werden (z. B. Social Scoring, manipulative KI oder Emotionserkennung in Schule/Arbeitsplatz).
2. August 2025
Pflichten fuer GPAI-Modelle greifen
Anbieter und Deployer allgemeiner KI-Modelle muessen Transparenz- und Governance-Vorgaben umsetzen.
2. August 2026
Annex-III-Hochrisiko-Pflichten werden voll durchgesetzt
Hochrisiko-Systeme brauchen lueckenloses Logging, wirksame Oversight-Kontrollen und prueffaehige technische Dokumentation.
Ordnen Sie Ihre Use Cases in wenigen Minuten ein, bevor regulatorische Fristen Ihr Delivery-Tempo bestimmen.
01
Social Scoring, verdeckte psychologische Manipulation und Emotionserkennung in Schule oder Arbeitsplatz.
Aktion: Sofort neutralisieren oder abschalten.
02
KI in HR/Recruiting, Kreditentscheidungen, essenziellen oeffentlichen Diensten und kritischer Infrastruktur.
Aktion: Kontinuierliches Logging, vollstaendige technische Dokumentation und wirksame Human Oversight umsetzen.
03
Chatbots und generative KI-Anwendungen.
Aktion: Transparenzhinweise und maschinenlesbare Kennzeichnung von KI-Output bereitstellen.
GRC-, Audit- und IT-Ops-Teams erwarten keine weitere Theorie, sondern belastbare Systeme, die diese Pflichten dauerhaft liefern.
Artikel 12
Hochrisiko-Systeme brauchen dauerhaftes, automatisiertes Logging fuer vollstaendige Rekonstruierbarkeit des Verhaltens.
Artikel 13
Teams muessen belastbare Nutzungshinweise zu Genauigkeit, Robustheit und Limitationen bereitstellen; oft als 40- bis 120-seitige Annex-IV-Dossiers.
Artikel 14
Reines Mitlesen reicht nicht. Operatoren brauchen echte Funktionen zum Stoppen, Uebersteuern oder Rueckgaengigmachen von Entscheidungen.
Artikel 73(6)
Bei schweren Vorfaellen muessen Systemzustand und Nachweise sofort und unveraenderlich eingefroren werden.
Artikel 86
Betroffene Personen koennen eine aussagekraeftige Erklaerung algorithmischer Entscheidungen verlangen.
Leksly ist darauf ausgelegt, regulatorische Anforderungen direkt in Ihren technischen Delivery-Pfad zu integrieren, statt sie als manuelle Nacharbeit zu behandeln.
Artikel 13
Manuelle Annex-IV-Dokumentation bindet dauerhaft Legal- und Engineering-Kapazitaet.
Annex-IV-Dossiers automatisch aus laufender System-Telemetrie erzeugen statt aus Tabellen und Einzeldokumenten.
Artikel 73(6)
Bei Vorfaellen sind Nachweise haeufig unvollstaendig oder nachtraeglich veraenderbar.
Nachweise in einem persistenten, kryptografisch gesicherten Forensik-Vault unveraenderlich aufbewahren.
Artikel 86
Teams koennen oft nicht schnell erklaeren, warum eine KI-Entscheidung getroffen wurde.
Per Echtzeit-API Entscheidungslogik, Kontext und Kontrollpfad fuer Auskunftsanfragen bereitstellen.
Leksly befindet sich in aktiver Entwicklung. Wir nehmen derzeit eine strikt limitierte Kohorte von 10 Enterprise-Beta-Partnern auf, die die Plattform vor den Hochrisiko-Fristen 2026 pilotieren.
Diese Seite ist ein Produkt- und Engineering-Briefing und ersetzt keine Rechtsberatung.