Die Verordnung über künstliche Intelligenz der Europäischen Union, kurz AI Act muss in verschiedenen Konstellationen auch von Schweizer Unternehmen beachtet werden. In Kraft ist der AI Act bereits seit Anfang August 2024. Die Umsetzung hingegen erfolgt zeitlich gestaffelt. Erste Umsetzungen haben per Februar 2025 zu erfolgen.
Erfahren Sie in diesem Beitrag, wann der AI Act auch für Schweizer Unternehmen relevant ist und was Sie beachten müssen.
Der AI Act unterscheidet sog. KI-Systeme grundsätzlich nach einer Risikoeinstufung und leitet daraus unterschiedliche Anforderungen und Regelungen für die verschiedenen Akteure ab. Da der AI Act – wie z.B. auch die Datenschutz-Grundverordnung der EU (DSGVO, GDPR) – sog. exterritoriale Wirkung hat, haben Schweizer Unternehmen unabhängig von ihrer Grösse (d.h. auch KMU und Startups) den AI Act in verschiedenen Konstellationen zu beachten.
Der AI Act ist ein komplexes Regelwerk der EU. In diesem Beitrag konzentrieren wir uns auf einige wichtige Aspekte.
Welche Schweizer Unternehmen müssen den AI Act der EU beachten?
Ein Unternehmen mit Sitz in der Schweiz muss den AI Act in folgenden Konstellationen beachten (nicht kumulativ):
Wenn ein Anbieter, ein KI-System in der EU in Verkehr bringt oder in Betrieb nimmt;
Wenn ein Anbieter ein KI-Modell mit allgemeinem Verwendungszweck in der EU in Verkehr bringt;
Wenn die vom KI-System eines Anbieters oder Betreibers hervorgebrachte Ausgabe in der EU verwendet wird;
Bevollmächtigte von Anbietern.
Was wird unter einem KI-System verstanden?
Unter einem KI-System wird ein maschinengestütztes System verstanden, das für einen in unterschiedlichem Grade autonomeren Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und es aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische der virtuelle Umgebungen beeinflussen können.
Was wird unter einem KI-Modell mit allgemeinem Verwendungszweck verstanden?
Unter einem „KI-Modell mit allgemeinem Verwendungszweck“ wird ein KI-Modell verstanden — einschliesslich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann, ausgenommen KI-Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden.
Beispiele:
ChatGPT
Claude
Wer ist Anbieter?
Als Anbieter wird eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle verstanden, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich.
Beispiele:
OpenAI (ChatGPT)
Microsoft (Copilot)
Wer ist Betreiber?
Als Betreiber wird eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle verstanden, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet.
Beispiele:
Jedes Unternehmen, das ein KI-System einsetzt.
Wann wird bei einem KI-System ein unannehmbares Risiko angenommen resp. was wird unter verbotenen Praktiken verstanden?
Folgende Konstellationen werden mit einem unannehmbaren Risiko eingestuft:
Unterschwellige Beeinflussung durch absichtlich manipulative oder täuschende Techniken
Ausnutzung von Schwächen oder Schutzbedürftigkeit
Soziale Bewertung («social scoring»)
Vorhersage krimineller Aktivitäten
Datenbank zur Gesichtserkennung
Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
Biometrische Kategorisierung
Biometrische Überwachung
Beispiele:
Gezielte Manipulation von Inhalten in sozialen Medien, um politische Ziele zu verfolgen.
Auswertung von Social Media Daten, um zu beurteilen, ob jemand kreditfähig ist.
Was sind die Folgen, wenn ein KI-System mit unannehmbarem Risiko vorliegt?
KI-Praktiken sind vollständig verboten, wenn sie mit einem unannehmbaren Risiko eingestuft werden. Sie werden deshalb auch als verbotene Praktiken bezeichnet.
Wann liegt bei einem KI-System ein hohes Risiko vor?
Einerseits, wenn es sich um ein Produkt oder eine Sicherheitskomponente eines Produktes handelt, die unter EU-Harmonisierungsvorschriften fallen (z.B. medizinische Geräte, industrielle Maschinen, Spielzeuge, Flugzeuge, Autos). Andererseits Anwendungsfälle gemäss Anhang III (kann geändert/angepasst werden):
Biometrie:
biometrische Fernidentifizierungssysteme
biometrische Kategorisierung nach sensiblen Attributen
Emotionserkennungssysteme
Kritische Infrastruktur:
Sicherheitssysteme für Verwaltung/Betrieb von Infrastruktur wie Verkehr, Wasser, Energieversorgung
Bildung:
Systeme für Zugang, Bewertung und Überwachung in Bildungseinrichtungen
Beschäftigung und Personalmanagement:
Systeme für Einstellung, Bewertung, Arbeitsbedingungen und Überwachung von Mitarbeitenden
Grundlegende Dienstleistungen:
Beurteilung von Ansprüchen auf öffentliche/private Leistungen (z. B. Gesundheit, Kredite)
Strafverfolgung:
Risikobewertung, Lügendetektoren, Beweismittelbewertung, Profiling
Migration und Grenzkontrolle:
Lügendetektoren, Risikobewertungen, Unterstützung bei Asyl/Visumanträgen
Recht und Demokratie:
Unterstützung von Justizbehörden, Beeinflussung von Wahlergebnissen
Was sind die Folgen, wenn ein KI-System mit hohem Risiko eingestuft wird?
Hochrisiko-KI-Systeme unterliegen strengen und umfangreichen Vorschriften.
Anbieter eines solchen Hochrisiko-KI-Systems müssen z.B. folgende Pflichten beachten:
Qualitäts- und Risikomanagementsystem
Daten-Governance
Technische Dokumentation
Aufzeichnungspflichten
Transparenzanforderungen
Menschliche Aufsicht
Genauigkeit, Robustheit und Cybersicherheit
Korrekturmassnahmen
Konformitätserklärung
Auch Betreiber von Hochrisiko-KI-Systemen haben umfangreichen Pflichten einzuhalten, z.B.:
Sicherstellung, dass KI-System gemäss Betriebsanleitung verwendet wird (technische und organisatorische Massnahmen
Menschliche Aufsicht
Überwachung und Informationspflicht
Aufbewahrung von Protokollen
Grundrechte-Folgenabschätzung
Welche Transparenzanforderungen gelten für alle KI-Systeme?
Unabhängig von einer Risikoeinstufung müssen folgende Transparenzpflichten immer eingehalten werden:
Anbieter eines KI-Systems müssen sicherstellen, dass natürliche Personen informiert werden, wenn sie mit einem KI-System direkt interagieren, ausser dies ist offensichtlich.
Anbieter von KI-Systemen, die synthetischen Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.
Betreiber eines Emotionserkennungssystem oder eines Systems zur biometrischen Kategorisierung informieren die natürlichen Personen über den Betrieb und die Verarbeitung personenbezogener Daten.
Betreiber haben Deepfakes zu kennzeichnen, d.h. durch KI erzeugte oder manipulierte Bild-, Ton- oder Videoinhalte, die wirklichen Personen, Gegenständen, Orte, Einrichtungen oder Ereignissen ähneln oder einer Person fälschlicherweise als echt oder wahrheitsgemäss erscheinen würde.
Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.
Was gilt für alle Anbieter und Betreiber von KI-Systemen?
Sowohl Anbieter wie auch Betreiber von KI-Systemen müssen die sog. KI-Kompetenz sicherstellen, d.h. sie müssen dafür sorgen, dass ihr Personal und weitere mit den KI-Systemen betrauten Personen hinreichende Kenntnisse im Umgang mit KI-Systemen besitzen.
Was sind die Risiken, wenn der AI Act nicht eingehalten wird?
Je nach Verstoss werden folgende Sanktionsstufen vorgesehen:
35 Mio Euro resp. 7% des weltweiten Jahresumsatzes
15 Mio Euro resp. 3% des weltweiten Jahresumsatzes
7,5 Mio Euro resp. 1% des weltweiten Jahresumsatzes
Ab wann gelten die Pflichten des AI Acts?
Der AI Act ist bereits seit Anfang August 2024 in Kraft. Die Pflichten zur Umsetzung erfolgen allerdings gestaffelt wie folgt:
Ab 2. Februar 2025:
Verbot von KI-Systemen mit unannehmbarem Risiko
Nachweis für KI-Kompetenz für alle notwendig
Ab 2. August 2025:
Regelungen für KI-Modelle mit allgemeinem Verwendungszweck
Ab 2. August 2026:
Alle Regelungen mit Ausnahme einiger Hochrisiko-KI-Systemen
Ab 2. August 2027:
Regelungen für einige Hochrisiko-KI-Systeme
Wann gilt der AI Act nicht?
Der AI Act kommt bei Vorliegen folgender Gegebenheiten nicht zur Anwendung:
Militärische und sicherheitsbezogene Zwecke
Internationale Zusammenarbeit im Bereich der Strafverfolgung und justiziellen Zusammenarbeit
Forschung und Entwicklung
Persönliche Nutzung
Open Source KI (sofern nicht verbotene KI-Praktiken, ein Hochrisiko-System oder Deepfake-Generierung vorliegt)
ZUSAMMENFASSUNG & PRÜFSCHEMA
Der AI Act ist ein komplexes Regelwerk, dessen konkrete Ausgestaltung sich erst mit der Zeit, d.h. mit der Publikation von entsprechenden Richtlinien wie auch mit Praxiserfahrung zeigen wird.
In diesem Beitrag haben wir uns auf einige wichtige Aspekte konzentriert.
Wir empfehlen in der Praxis folgende Prüfschritte vorzunehmen:
Hat man mit einem KI-System oder einem KI-Modell mit allgemeinem Verwendungszweck zu tun?
Falls ja: in welcher vom AI-Act vorgesehenen Funktion ist man tätig? Ist man insbesondere Anbieter oder Betreiber eines KI-Systems?
Gelangt der AI Act zur Anwendung, wenn man ausserhalb der EU ist?
In welche Risikokategorie fällt das KI-System?
Last but not least sollte beachtet werden, dass Betreiber auch diejenigen Pflichten einzuhalten haben, die der Hersteller eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck in seinen Nutzungsbedingungen festlegt. Diese können über die im AI Act definierten Pflichten hinausgehen.
HABEN SIE FRAGEN ZUM AI ACT?
Wir bieten neben Beratungen und Umsetzungsunterstützungen auch Schulungen an (sowohl individuelle wie auch e-Learnings).
Kontaktieren Sie uns jederzeit gerne.
Ihre Ansprechpersonen:
Caroline Danner
Rechtsanwältin & Gründungspartnerin ONLAW
Chantal Lutz
Rechtsanwältin & Partnerin ONLAW
Comments