Aus dem Kurs: Grundlagen der Programmierung: Sichere Software entwickeln

Der AI Act

Der AI Act ist das erste umfassende Gesetz weltweit zur Regulierung von künstlicher Intelligenz. Sein Ziel ist es, die Entwicklung von KI zu fördern und gleichzeitig sicherzustellen, dass Grundrechte eingehalten werden und das Vertrauen in diese Technologie wächst. Die Verordnung tritt schrittweise in Kraft. Eine Anforderung, die bereits gilt, ist die Forderung nach AI Literacy. Anbieter und Betreiber von KI-Systemen müssen sicherstellen, dass ihr Personal die notwendigen Kenntnisse im Umgang mit KI besitzt. Die letzten Anforderungen des AI Acts treten im August 2027 vollständig in Kraft. Der AI Act unterscheidet vier Risikostufen. Inakzeptables Risiko betrifft Anwendungen, die den europäischen Werten widersprechen und daher verboten sind. Ein Beispiel hierfür ist Social Scoring. Hohes Risiko betrifft KI-Systeme in sensiblen Bereichen wie beispielsweise der Luftfahrt oder in der kritischen Infrastruktur. Hier ist eine Konformitätsbewertung mit den Anforderungen des AI Acts durchzuführen. Begrenztes Risiko erfordert Transparenz- Pflichten. Zum Beispiel muss klar erkennbar sein, ob man mit einem Chatbot spricht oder wenn ein Bild von einer KI erstellt wurde. Für alle anderen Systeme gilt minimales Risiko. Hier gelten keine besonderen Regeln. Beispiele hierfür sind zum Beispiel Videospiele oder Spamfilter. Allgemein einsetzbare KI-Systeme wie beispielsweise ChatGPT haben eine Sonderstellung. Sie müssen Transparenzpflichten erfüllen, einschließlich einer detaillierten technischen Dokumentation und Informationen über die Daten, die für das Training verwendet wurden. Für Hochrisikoanwendungen gelten strengere Anforderungen. Zunächst muss ein Risikomanagementsystem eingerichtet werden, das Risiken kontinuierlich überwacht und bewertet. Ebenso wichtig ist die Einhaltung der Data-Governance-Vorgaben, um sicherzustellen, dass die verwendeten Daten korrekt, relevant und rechtmäßig verarbeitet werden. Darüber hinaus bestehen umfassende Dokumentations- und Aufzeichnungspflichten, damit nachvollziehbar ist, wie das KI-System funktioniert und welche Entscheidungen getroffen wurden. Ein weiterer zentraler Punkt ist die Transparenz gegenüber Anwenderinnen und Anwendern. Sie müssen klar erkennen können, dass sie mit einem KI-System interagieren. Zusätzlich ist die Implementierung menschlicher Überwachung vorgeschrieben. Das bedeutet, dass Menschen jederzeit eingreifen können, wenn das System fehlerhaft oder riskant agiert. Schließlich muss die KI ein hohes Maß an Genauigkeit, Robustheit und Cybersicherheit gewährleisten, um Manipulationen und Fehlfunktionen zu verhindern. Diese Maßnahmen sind entscheidend, um die Sicherheit und Vertrauenswürdigkeit von Hochrisiko-KI-Systemen sicherzustellen. Die Strafen bei Nichteinhaltung sind hoch. Deshalb ist es entscheidend, frühzeitig zu prüfen, ob die eigenen Systeme betroffen sind und rechtzeitig Maßnahmen umzusetzen. Integrieren Sie daher Compliance und Sicherheit von Anfang an in Ihre KI-Produkte. Das schützt nicht nur vor Risiken, sondern stärkt auch das Vertrauen in Ihre Lösungen.

Inhalt