Neogentic LogoNeoGentic
KontaktDemo anfordern

Zurück zum Blog
Was steckt hinter dem EU AI Act? Ein Kurzüberblick

Was steckt hinter dem EU AI Act? Ein Kurzüberblick

June 6, 2025 (8mo ago)von NeoGentic Team

Mit dem AI Act schafft die Europäische Union einen einheitlichen Rechtsrahmen, um Künstliche Intelligenz sicherer und verantwortungsvoller einzusetzen. Ziel ist es, potenzielle Gefahren zu begrenzen, ohne Innovation unnötig zu erschweren. Grundrechte sollen geschützt und sichergestellt werden, dass KI-Systeme nicht missbräuchlich eingesetzt werden.

Der risikobasierte Ansatz

Das Gesetz unterscheidet KI-Anwendungen nach ihrem Risiko: Von komplett untersagten Systemen über streng regulierte „Hochrisiko"-Anwendungen bis hin zu weitgehend unveränderten Alltags-Tools wie einfachen Textgeneratoren oder Spiele-KIs.

Je höher das Risiko, desto höher sind auch die Vorgaben.

Verbotene Anwendungen und Transparenzpflichten

An das untere Ende der Skala fallen KI-Tools, die kaum Risiken bergen und daher keiner zusätzlichen Regulierung unterliegen. Gleich darüber stehen Anwendungen mit begrenztem Risiko: Hier müssen Entwickler etwa offenlegen, wenn Nutzer mit einer KI interagieren – zum Beispiel Chatbots oder Deepfake-Generatoren.

Deutlich strenger wird es bei Systemen, die unakzeptable Risiken bergen:

  • Algorithmen, die Menschen manipulieren
  • Soziale Bewertungen („Social Scoring")
  • Biometrische Ableitung ohne klare Rechtsgrundlage

Hochrisiko-KI: Anforderungen für Anbieter und Anwender

Im Kern des AI Act stehen sogenannte Hochrisiko-Systeme. Diese kommen in Bereichen wie Gesundheitswesen, Verkehr, Personalrekrutierung, Kreditvergabe oder Strafverfolgung zum Einsatz.

Anbieter solcher KIs müssen:

  • Ein Risikomanagement etablieren
  • Sicherstellen, dass Trainingsdaten repräsentativ und frei von Verzerrungen sind
  • Regelmäßige Tests zur Robustheit und Cybersicherheit durchführen
  • Technische Dokumentationen und klare Gebrauchsanweisungen bereitstellen

Generative KI (GPAI)

Besondere Regeln gelten für allgemeine, leistungsfähige KI-Modelle (GPAI). Wer etwa große Sprachmodelle anbietet, muss transparent machen, auf welcher Datenbasis das Modell trainiert wurde und wie Urheberrechte berücksichtigt werden.

Stufenweise Einführung

Der AI Act wird stufenweise wirksam:

  • 6 Monate: Verbote für unakzeptable Risiken
  • 12 Monate: Regeln für generative KI-Modelle
  • 24 Monate: Hochrisiko-Regulierung für viele Anwendungsfälle
  • 36 Monate: Verbleibende kritische Bereiche

Compliance und Folgen bei Verstößen

Behörden können stichprobenartige Kontrollen durchführen und bei Verstößen Bußgelder verhängen, die je nach Schwere bis zu mehrere Prozent des Jahresumsatzes eines Unternehmens betragen. Im Ernstfall drohen Vertriebsverbote, Rückrufaktionen oder Unterlassungsverfügungen.

Tipps für Unternehmen

  1. Risikoanalyse durchführen: Prüfen Sie frühzeitig, in welchen Risikobereich Ihre KI-Lösungen fallen
  2. Anbieter sorgfältig auswählen: Achten Sie auf Transparenz und AI Act-Konformität
  3. Datenqualität sicherstellen: Nutzen Sie repräsentative, fehlerfreie und aktuelle Datensätze
  4. Transparenz schaffen: Informieren Sie Endnutzer über KI-Interaktionen
  5. Mitarbeiter schulen: Schulen Sie im Umgang mit KI-Systemen

Quelle:

  • Bundesregierung. (2025). AI Act verabschiedet - Einheitliche Regeln für Künstliche Intelligenz in der EU

Bereit, Ihre Security Operations zu transformieren?

Erfahren Sie, wie NeoLytik Ihrer Organisation mit einer personalisierten Demo helfen kann.

Demo anfordernKontaktieren Sie uns
Neogentic LogoNeoGentic

Produkte

  • Tyr GRC
  • Valkyr SOC

Unternehmen

  • Über uns
  • Karriere
  • Investor Relations
  • Blog
  • Kontakt
  • Demo anfordern

Rechtliches

  • Datenschutz
  • Impressum

Verbinden

  • LinkedIn
Kofinanziert von der Europäischen Union
Land Nordrhein-Westfalen
Digital Hub
Copyright © 2026 NeoGentic - KI-gestützte Sicherheitslösungen