KI im Unternehmen: 9 Schritte zur Compliance – ganz ohne Panik

Ob Chatbot, Prognosemodell oder automatisierte Dokumentenanalyse – KI ist in vielen Unternehmen längst Realität. Doch mit der neuen EU-Verordnung 2024/1689 (dem „AI Act“) ändert sich das Spiel: Wer KI nutzt, muss sie jetzt systematisch in den Griff bekommen – technisch, rechtlich, organisatorisch. Keine Sorge: Mit diesen 9 Schritten starten Sie sicher in die neue KI-Welt.


1. Was läuft da eigentlich schon? – KI-Inventur machen

Use Case: Im Vertrieb nutzt ihr Team GPT-Tools zur Angebotserstellung? Oder in der HR werden Bewerbungen automatisch vorselektiert? Dann brauchen Sie eine Bestandsliste.

Warum: Artikel 29 AI Act verlangt eine Dokumentation eingesetzter KI-Systeme. Nur wer weiß, was er nutzt, kann auch die rechtlichen Anforderungen erfüllen .


2. Wer sind wir – Anbieter oder Betreiber?

Use Case: Ihr IT-Team hat ein Modell zur Umsatzprognose selbst entwickelt – dann sind Sie „Anbieter“. Nutzen Sie ein externes Tool, z. B. für E-Mail-Analyse, sind Sie „Betreiber“.

Warum: Anbieter (Art. 3 Nr. 2 KI-VO) unterliegen strengeren Pflichten (z. B. Risikomanagement nach Art. 9), Betreiber (Art. 3 Nr. 4) vor allem Nutzerpflichten (Art. 26) .


3. Wie riskant ist das System? – Risikoklassifizierung

Use Case: Ein HR-Tool trifft Entscheidungen über Bewerber → Hochrisiko! Ein Chatbot auf der Website → geringeres Risiko.

Warum: Laut Art. 6 ff. AI Act gilt für Hochrisiko-KI eine Art TÜV: Technische Doku, Überwachung, Transparenz, menschliche Kontrolle. Ohne diese Klassifizierung: keine Compliance .


4. Regeln fürs Team – damit KI nicht zum Datenleck wird

Use Case: Eine Mitarbeiterin gibt Kundendaten in ChatGPT ein – ups! Deshalb braucht’s klare interne Spielregeln.

Warum: Art. 29 Abs. 4 AI Act verlangt Richtlinien zur sicheren Nutzung. Z. B.: Keine vertraulichen Infos eingeben, KI-Ergebnisse kritisch prüfen, wer ist verantwortlich?


5. Wo’s rechtlich brenzlig wird – Risiken erkennen

Use Case: Ein KI-System analysiert Kundenstimmungen aus E-Mails. Klingt harmlos, aber: Verarbeitet es personenbezogene Daten?

Warum: Art. 27 AI Act verlangt Prüfung auf Grundrechtsrisiken. Bei Datenverarbeitung greift die DSGVO: Rechtmäßigkeit, Einwilligung, Zweckbindung (Art. 5, 6 DSGVO) .


6. Datenschutz & Geheimnisse schützen

Use Case: Ihr Unternehmen trainiert ein KI-Modell mit internen Support-Chats. Wie wird sichergestellt, dass keine sensiblen Infos nach außen dringen?

Warum: Art. 53 AI Act + Art. 32 DSGVO fordern technische und organisatorische Maßnahmen – u. a. Pseudonymisierung, Zugriffskontrollen, Verträge mit Anbietern.


7. Wer haftet, wenn’s knallt? – Haftung & Copyright

Use Case: Die KI schlägt eine fehlerhafte Kündigung vor. Wer ist verantwortlich?

Warum: Der neue EU-Vorschlag zur KI-Haftung (2024) sagt: Bei Hochrisiko-KI haften Unternehmen u. U. auch ohne eigenes Verschulden . Urheberrechtlich gilt: Was KI generiert, ist (noch) nicht rechtssicher geschützt – Kontrolle bleibt Pflicht.


8. Nur geprüfte Tools zulassen

Use Case: Ein Mitarbeiter nutzt ein zufälliges KI-Tool aus dem Netz? Besser nicht.

Warum: Laut Art. 52 AI Act dürfen nur konforme Tools eingesetzt werden. Unternehmen sollten eine „Whitelist“ geprüfter Tools führen – mit dokumentierter Prüfung auf Datenschutz, Transparenz und technische Sicherheit.


9. KI-Schulung ist Pflicht – nicht Kür

Use Case: Ihre Teams nutzen KI, wissen aber kaum, wie sie funktioniert oder was sie dürfen? Dann ist es Zeit für ein Trainingsprogramm.

Warum: Art. 4 AI Act verpflichtet Unternehmen, für „AI Literacy“ zu sorgen – also Know-how über Technik, Ethik und Recht. Gute Beispiele liefert das „Living Repository“ mit bewährten Schulungskonzepten aus der Praxis .


Fazit: Keine Panik, aber handeln!

Die KI-Verordnung ist kein Zukunftsgespenst – sie ist Realität. Wer heute strukturiert startet, spart morgen Geld, Ärger und Bußgelder. Der Schlüssel: Transparenz, klare Prozesse, und ein KI-kompetentes Team.

Interesse an einem Compliance-Workshop oder einer Tool-Prüfung? Dann melden Sie sich – ich unterstütze Sie gern beim sicheren KI-Einsatz.