KI Datenschutz – Was der EU AI Act für Generative KI bedeutet

von Jul 2, 2024Best Practices0 Kommentare

i 3 Inhaltsverzeichnis

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist aus vielen Bereichen des täglichen Lebens nicht mehr wegzudenken. Besonders generative KI-Systeme, wie sie beispielsweise bei der Text- oder Bildgenerierung zum Einsatz kommen, haben großes Potenzial, bringen aber auch erhebliche Risiken mit sich. Mit dem EU AI Act hat die Europäische Union einen bedeutenden Schritt unternommen, um die Entwicklung und Nutzung von KI-Systemen zu regulieren und sicherzustellen, dass KI Datenschutz und ethische Standards gewahrt bleiben. In diesem Artikel zeigen wir  die zentralen Aspekte des EU AI Acts und was dieser für den Einsatz von generativer KI bedeutet.

 

Was der EU AI Act für KI Datenschutz bedeutet

 

Der EU AI Act ist ein umfassendes Regelwerk, das darauf abzielt, den Einsatz von Künstlicher Intelligenz in der Europäischen Union zu regulieren. Das Gesetz spezifische Anforderungen fest, um sicherzustellen, dass KI-Systeme sicher, transparent und ethisch einwandfrei sind. Die Hauptziele des Gesetzes umfassen den Schutz der Grundrechte, die Gewährleistung der Sicherheit von KI-Systemen und die Förderung von Innovationen in einem klar definierten rechtlichen Rahmen. Eine kleine Entwarnung, wenn Sie generative KI einsetzen. Die Vorschrift greift erst im vollen Umfang ab 2026, damit gibt es noch Zeit für Anpassungen.

Hauptziele und Vorgaben des EU AI Acts

 

Der EU AI Act setzt klare Vorgaben für die Entwicklung und den Einsatz von KI-Systemen:

  1. Transparenz und Nachvollziehbarkeit: Anbieter von KI-Systemen müssen sicherstellen, dass ihre Systeme nachvollziehbar und transparent sind. Dies bedeutet, dass Nutzer verstehen können, wie die KI zu ihren Entscheidungen kommt.
  2. Sicherheit und Robustheit: KI-Systeme müssen sicher und robust gegen Fehler und Missbrauch sein. Dies schließt auch den Schutz vor Cyberangriffen ein.
  3. Ethische und rechtliche Compliance: KI-Systeme dürfen keine Diskriminierung fördern und müssen die geltenden Datenschutzgesetze einhalten. Dies ist besonders wichtig für generative KI, die oft große Mengen personenbezogener Daten verarbeitet.

Spezifische Anforderungen für generative KI-Systeme

 

Generative KI-Systeme, die Inhalte wie Texte, Bilder oder Videos erstellen, stehen im Fokus des EU AI Acts. Diese Systeme müssen zusätzliche Anforderungen erfüllen, um sicherzustellen, dass sie nicht missbräuchlich verwendet werden können. Hierzu gehören:

  • Kennzeichnungspflicht: Generative KI-Systeme müssen kennzeichnen, dass die erstellten Inhalte von einer KI generiert wurden. Dies soll verhindern, dass KI-generierte Inhalte als menschliche Werke missverstanden werden.
  • Datenqualität: Die Qualität und Genauigkeit der Daten, die für das Training von generativen KI-Systemen verwendet werden, müssen sichergestellt sein. Dies dient dazu, Verzerrungen und Fehlinformationen zu vermeiden.
  • Datenschutz: Ein zentrales Element des EU AI Acts ist der Schutz personenbezogener Daten. Generative KI-Systeme müssen die geltenden Datenschutzrichtlinien einhalten, um die Privatsphäre der Nutzer zu gewährleisten.

Der EU AI Act stellt somit sicher, dass der Einsatz von generativer KI nicht nur innovativ, sondern auch sicher und verantwortungsvoll erfolgt. Unternehmen müssen sich mit diesen neuen Regelungen vertraut machen und entsprechende Maßnahmen ergreifen, um konform zu bleiben.

Wenn Sie sich schnell einlesen möchten, gibt es von der EU auch eine Kurzfassung des KI Acts über die Sie alle wichtigen Details schnell auf den Punkt bekommen.

Risikoklassifizierung von KI-Systemen

 

Ein zentraler Bestandteil des EU AI Acts ist die Risikoklassifizierung von KI-Systemen. Diese Klassifizierung hilft dabei, verschiedene KI-Anwendungen nach ihrem potenziellen Risiko für die Gesellschaft und Einzelpersonen zu bewerten und entsprechende Regulierungsmaßnahmen festzulegen. Der EU AI Act unterteilt KI-Systeme in vier Hauptkategorien: unzulässig, hochriskant, eingeschränkt riskant und minimal riskant.

 

 

 

Unzulässige KI-Systeme sind solche, die gegen die grundlegenden Rechte und Freiheiten von Menschen verstoßen. Diese Systeme sind unter dem EU AI Act verboten. Ein Beispiel dafür sind soziale Bewertungssysteme (Social Scoring), die Menschen aufgrund ihres sozialen Verhaltens bewerten und entsprechende Sanktionen oder Belohnungen vergeben. Ebenso verboten sind manipulative Techniken, die das Verhalten von Personen auf unfaire oder intransparente Weise beeinflussen.

Hochriskante KI-Systeme unterliegen strengen Auflagen und müssen eine Vielzahl von Anforderungen erfüllen, um eingesetzt werden zu dürfen. Diese Systeme haben das Potenzial, erhebliche Auswirkungen auf die Sicherheit und die Rechte der Menschen zu haben. Beispiele für hochriskante KI-Anwendungen sind solche, die in kritischen Infrastrukturen wie Energie- oder Wasserversorgung eingesetzt werden, in der Bildung und Beschäftigung zur Bewertung von Schülern oder zur Einstellung und Beförderung von Mitarbeitern verwendet werden, oder in der Justiz und Strafverfolgung bei der Strafverfolgung oder Urteilsfindung eingesetzt werden. Das ließe sich mit handelsüblichen KI-Anwendungen schon machen(!) Mit der gut funktionierenden Bilderkennung durch des letzte Modell von ChatGPTo könnten Sie automatisierte Bewertungen Ihrer Mitarbeiter machen.

Eingeschränkt riskante KI-Systeme erfordern spezifische Transparenzmaßnahmen, müssen aber nicht so strenge Auflagen erfüllen wie hochriskante Systeme. Hierzu gehören zum Beispiel Chatbots, die den Nutzern anzeigen müssen, dass sie mit einer KI interagieren, und Systeme zur Emotionserkennung und Lügenwahrnehmung, die klare Hinweise darauf geben müssen, wie sie funktionieren und welche Daten sie verwenden. Genauso gehören hier dazu KI Systeme, die Inhalte wie Texte und Bilder generieren. Unter diese Kategorie fallen Sie in der Regel beim Einsatz von generativer KI im Unternehmen.

Minimal riskante KI-Systeme unterliegen keinen besonderen Anforderungen, da sie als weitgehend sicher gelten. Beispiele hierfür sind Spamfilter, die E-Mails auf Spam überprüfen, und Videospiel-KI, die das Verhalten von Charakteren in Videospielen steuert.

Die Risikoklassifizierung hilft Unternehmen dabei, die richtigen Maßnahmen zu ergreifen, um die Einhaltung der gesetzlichen Anforderungen sicherzustellen und gleichzeitig die Potenziale der KI-Technologie zu nutzen. Unternehmen, die die neuen Regelungen des EU AI Acts umsetzen, können nicht nur Risiken minimieren, sondern auch von den vielfältigen Chancen profitieren, die generative KI bietet.

Strategische KI-Beratung für Ihren Unternehmenserfolg

Entdecken Sie unser maßgeschneidertes KI-Consulting. Von der Personalentwicklung bis zu Innovations-Centern in Ihrem Unternehmen.

Zur KI-Beratung ➔

 

 

Umsetzung und Compliance-Checker für den EU AI Act

 

Die Umsetzung des EU AI Acts erfordert von Unternehmen nicht nur ein Verständnis der gesetzlichen Anforderungen, sondern auch konkrete Schritte zur Einhaltung dieser Vorschriften. Ein wichtiger Bestandteil dieses Prozesses ist die Nutzung von Tools und Methoden, die Unternehmen dabei unterstützen, die Compliance zu gewährleisten. Zum Glück ist die EU inzwischen auch digitaler geworden und bietet einen handlichen Compliance-Checker an.

Unter dem folgenden Link können Sie sehr schnell mit einem Fragebogen prüfen, wie Sie Ihre KI-Inhalte konkret checken und kennzeichnen müssen: EU AI Act Complicance Checker.  Das funktioniert ganz einfach, der Compliance Checker führt Sie durch eine Frage und Antwort-Prozess und am Ende wissen Sie, wie Sie Ihre KI Inhalte in Zukunft kennzeichnen müssen. Es ist nicht zu schwer und Sie gehen mit generativer KI kein großes Risiko ein,  wenn Sie KI im Rahmen der geltenden Gesetze nutzen, auch wenn Sie amerikanische Tool für Ihr Unternehmen nutzen. Die Einhaltung der Vorschriften kontinuierlich zu überwachen und gegebenenfalls Anpassungen vorzunehmen.

Befähigen Sie Ihr Team mit unserer KI-Weiterbildung

Mit unseren Angeboten zu KI und ChatGPT machen Sie Ihre Organisation fit für den Einsatz von Künstlicher Intelligenz.