Security - Sicherheit
zurueck
end
Datenschutz
Sicherheit im Umgang mit digitalen Daten
Europäische Union Cyberstrategie, Datenschutz & Medienrecht
Umgang mit digitalen Daten im Internet
EU Regeln für künstliche Intelligenz KI
2023
(Artificial Intelligence Act)
ICT Informationen
Datenschutz Weitere Informationen
ICT-Glossar Fachbegriffe
Informations- und Kommunikationstechnologie
Europäische Union
Regeln für künstliche Intelligenz (Digital Service Act)

Künstliche Intelligenz: Rat und Parlament schlagen eine Einigung über die ersten Regeln für KI in der Welt

Nach dreitägigen "Marathon"-Gesprächen haben die Ratspräsidentschaft und die Verhandlungsführer des Europäischen Parlaments eine vorläufige Einigung über den Vorschlag über harmonisierte Regeln für künstliche Intelligenz (KI) erzielt.

Der Verordnungsentwurf soll sicherstellen, dass KI-Systeme, die auf dem europäischen Markt und in der EU eingesetzt werden, sicher sind und Grundrechte und EU-Werte respektieren. Dieser wegweisende Vorschlag zielt auch darauf ab, Investitionen und Innovationen bei KI in Europa an.

Für Carme Artigas, spanische Staatssekretärin für Digitalisierung und künstliche Intelligenz, ist das Resultat der Verhandlungen ein historischer Erfolg und ein grosser Meilenstein in Richtung Zukunft!

Die Einigung befasst sich effektiv mit einer globalen Herausforderung in einem sich schnell entwickelnden technologischen Umfeld in einem Schlüsselbereich für die Zukunft unserer Gesellschaften und Volkswirtschaften. Und in diesem Bestreben gelang es uns, ein äusserst empfindliches Gleichgewicht zu halten: die Förderung der Innovation und die Aufnahme künstlicher Intelligenz in ganz Europa, während wir die Grundrechte unserer Bürger voll respektieren.

Das KI-Gesetz ist eine führende Gesetzesinitiative mit dem Potenzial, die Entwicklung und Aufnahme sicherer und vertrauenswürdiger KI im EU-Binnenmarkt durch private und öffentliche Akteure zu fördern. Die Hauptidee besteht darin, KI auf der Grundlage der Fähigkeit zu regulieren, der Gesellschaft nach einem "risikobasierten" Ansatz Schaden zuzufügen: Je höher das Risiko, desto strenger die Regeln. Als erster Legislativvorschlag seiner Art in der Welt kann er einen globalen Standard für die KI-Regulierung in anderen Jurisdiktionen setzen, so wie es die DSGVO getan hat, und so den europäischen Ansatz zur Technologieregulierung in der Weltstufe fördern.

Die Hauptelemente des vorläufigen Abkommens

Im Vergleich zum ursprünglichen Kommissionsvorschlag lassen sich die wichtigsten neuen Elemente des vorläufigen Abkommens wie folgt zusammenfassen:

Regeln für hochwirksame KI-Modelle, die in Zukunft systemische Risiken verursachen können, sowie für risikoreiche KI-Systeme
ein überarbeitetes Regierungssystem mit einigen Durchsetzungsbefugnissen auf EU-Ebene
Erweiterung der Liste der Verbote, aber mit der Möglichkeit, eine entfernte biometrische Identifizierung durch die Strafverfolgungsbehörden im öffentlichen Raum zu verwenden, vorbehaltlich der Schutzmassnahme
besseren Schutz der Rechte durch die Verpflichtung für die Einsatzer von Hochrisiko-KI-Systemen, eine Fundamentalrechtsfolgenabschätzung durchzuführen, bevor ein KI-System verwendet wird

Konkreter ist der vorläufige Vertrag folgende Aspekte:

Definitionen und Umfang

Um sicherzustellen, dass die Definition eines KI-Systems ausreichend klare Kriterien für die Unterscheidung von KI von einfacheren Softwaresystemen bietet, stimmt die Kompromissvereinbarung der Definition mit dem von der OECD vorgeschlagenen Ansatz überein.

Die vorläufige Vereinbarung stellt auch klar, dass die Verordnung nicht für Bereiche ausserhalb des EU-Rechts gilt und auf keinen Fall die Zuständigkeiten der Mitgliedstaaten in der nationalen Sicherheit oder einer mit Aufgaben in diesem Bereich betrauten Einrichtung beeinträchtigen sollte. Darüber hinaus gilt das KI-Gesetz nicht für Systeme, die ausschliesslich für militärische oder defenceverteidigungspolitische Zwecke verwendet werden. In ähnlicher Weise sieht das Abkommen vor, dass die Verordnung nicht für KI-Systeme gelten würde, die ausschliesslich für Forschung und Innovation verwendet werden, oder für Menschen, die KI aus nicht-professionellen Gründen verwenden.

Klassifikation von KI-Systemen als risikoreiche und verbotene KI-Praktiken

Die Kompromissvereinbarung sieht eine horizontale Schutzschicht vor, einschliesslich einer Hochrisiko-Klassifizierung, um sicherzustellen, dass KI-Systeme, die wahrscheinlich keine schwerwiegenden Grundrechteverletzungen oder andere erhebliche Risiken verursachen, nicht erfasst werden.

KI-Systeme, die nur ein begrenztes Risiko darstellen, unterliegen sehr leicht Transparenzverpflichtungen, zum Beispiel die Offenlegung, dass der Inhalt KI-generiert wurde, so dass Benutzer fundierte Entscheidungen über die weitere Nutzung treffen können.

Eine breite Palette von risikoreichen KI-Systemen würde zugelassen, aber einer Reihe von Anforderungen und Verpflichtungen unterliegen, um Zugang zum EU-Markt zu erhalten. Diese Anforderungen wurden von den Mitgesetzgebern so klar und angepasst, dass sie technisch machbar und weniger belastend sind, damit die Interessengruppen, wie zum Beispiel in Bezug auf die Qualität der Daten, oder in Bezug auf die technische Dokumentation, die von KMU erstellt werden sollte, um zu zeigen, dass ihre risikoreichen KI-Systeme den Anforderungen entsprechen.

Da KI-Systeme über komplexe Wertschöpfungsketten entwickelt und verteilt werden, beinhaltet die Kompromissvereinbarung Änderungen, die die Zuweisung von Verantwortlichkeiten und Rollen der verschiedenen Akteure in diesen Ketten, insbesondere Anbietern und Anwendern von KI-Systemen, klären. Er präzisiert auch die Beziehung zwischen den Verantwortlichkeiten im Rahmen des KI-Gesetzes und Verantwortlichkeiten, die bereits nach anderen Rechtsvorschriften bestehen, wie der einschlägigen EU-Datenschutz- oder Sektorgesetzgebung.

Für einige KI-Nutzungen wird das Risiko als inakzeptabel angesehen, und daher werden diese Systeme aus der EU verbannt.

Die vorläufige Vereinbarung verbietet zum Beispiel kognitive Verhaltensmanipulationen, das ungerichtete Verschrotten von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, soziales Scoring, biometrische Kategorisierung, um sensible Daten zu schliessen, wie sexuelle Orientierung oder religiöse Überzeugungen, und einige Fälle von prädiktiver Überwachung für Einzelpersonen.

Ausnahmen von Strafverfolgungsbehörden

In Anbetracht der Besonderheiten der Strafverfolgungsbehörden und der Notwendigkeit, ihre Fähigkeit zur Verwendung von KI in ihrer lebenswichtigen Arbeit zu erhalten, wurden mehrere Änderungen am Kommissionsvorschlag im Zusammenhang mit der Verwendung von KI-Systemen zu Strafverfolgungszwecken vereinbart. Vorbehaltlich geeigneter Sicherheitsvorkehrungen sollen diese Änderungen die Notwendigkeit widerspiegeln, die Vertraulichkeit sensibler Betriebsdaten in Bezug auf ihre Aktivitäten zu respektieren. Zum Beispiel wurde ein Notfallverfahren eingeführt, das es den Strafverfolgungsbehörden ermöglicht, ein risikoreiches KI-Tool einzusetzen, das das Konformitätsbewertungsverfahren im Falle einer Dringlichkeit nicht bestanden hat. Es wurde jedoch auch ein spezifischer Mechanismus eingeführt, der sicherstellt, dass die Grundrechte ausreichend vor möglichen Missbräuchen von KI-Systemen geschützt werden.

Darüber hinaus klärt die vorläufige Vereinbarung hinsichtlich der Verwendung von in Echtzeit entfernten biometrischen Identifikationssystemen in öffentlich zugänglichen Räumen die Ziele, wenn eine solche Verwendung für Strafverfolgungszwecke streng notwendig ist und für die Strafverfolgungsbehörden solche Systeme daher aussergewöhnlich nutzen dürfen. Das Kompromissabkommen sieht zusätzliche Schutzmassnahmen vor und beschränkt diese Ausnahmen auf Fälle von Opfern bestimmter Straftaten, Verhinderung echter, vorhandener oder vorhersehbarer Bedrohungen, wie Terroranschläge, und Durchsuchungen nach Personen, die der schwersten Verbrechen verdächtigt werden.

Allgemeine KI-Systeme und Basismodelle

Es wurden neue Bestimmungen hinzugefügt, um Situationen zu berücksichtigen, in denen KI-Systeme für viele verschiedene Zwecke (Allzweck-KI) verwendet werden können und in denen die allgemeine KI-Technologie anschliessend in ein anderes Hochrisikosystem integriert wird. Die vorläufige Vereinbarung befasst sich auch mit den spezifischen Fällen von Allzweck-KI (GPAI)-Systemen.

Es wurden auch spezielle Regeln für Basismodelle vereinbart, grosse Systeme, die in der Lage sind, eine Vielzahl von unverwechselbaren Aufgaben zu erfüllen, wie z. B. die Generierung von Video, Text, Bilder, das Gesprächen in der Lateralsprache, das Rechnen oder das Generieren von Computercode.

Die vorläufige Vereinbarung sieht vor, dass die Grundmodelle den spezifischen Transparenzverpflichtungen entsprechen müssen, bevor sie auf den Markt kommen. Für die Gründungsmodelle wurde ein strengeres Regime eingeführt. Dies sind Gründungsmodelle, die mit grosser Datenmenge und mit fortschrittlicher Komplexität, Fähigkeiten und Leistung weit über dem Durchschnitt trainiert wurden, was systemische Risiken entlang der Wertschöpfungskette verbreiten kann.

Eine neue Governance-Architektur

Nach den neuen Regeln für GPAI-Modelle und der offensichtlichen Notwendigkeit ihrer Durchsetzung auf EU-Ebene wird ein KI-Büro innerhalb der Kommission eingerichtet, um diese fortschrittlichsten KI-Modelle zu überwachen, zur Förderung von Standards und Testpraktiken beizutragen und die gemeinsamen Regeln in allen Mitgliedsstaaten durchzusetzen. Ein wissenschaftliches Gremium unabhängiger Experten wird das KI-Büro über GPAI-Modelle beraten, indem es zur Entwicklung von Methoden zur Bewertung der Fähigkeiten von Basismodellen beiträgt, bei der Gestaltung und dem Aufkommen von schlagstarken Basismodellen berät und mögliche Materialsicherheitsrisiken im Zusammenhang mit Basismodellen überwacht.

Der KI-Vorstand, der die Vertreter der Mitgliedsstaaten umfassen würde, bleibt als Koordinierungsplattform und beratender Organ der Kommission und wird den Mitgliedstaaten eine wichtige Rolle bei der Umsetzung der Verordnung spielen, einschliesslich der Gestaltung von Verhaltenskodizes für Gründungsmodelle. Schliesslich wird ein Beratungsforum für Interessengruppen wie Branchenvertreter, KMU, Start-ups, Zivilgesellschaft und Wissenschaft eingerichtet, um dem KI-Vorstand technisches Know-how zu bieten.

Strafen

Die Geldbussen für Verstösse gegen das KI-Act wurden als Prozentsatz des weltweiten Jahresumsatzes des beleidigenden Unternehmens im vergangenen Geschäftsjahr oder einen vorbestimmten Betrag festgelegt, je nach höher. Bei Verstössen gegen die verbotenen KI-Anwendungen, 15 Millionen Euro oder 3% wegen Verstössen gegen die Verpflichtungen des KI-Anbandes und 7,5 Mio. € oder 1,5% für die Lieferung falscher Informationen. Die vorläufige Vereinbarung sieht jedoch verhältnismässige Obergrenzen für Verwaltungsstrafen für KMU und Start-ups bei Verstössen gegen die Bestimmungen des KI-Ansatzes vor.

Die Kompromissvereinbarung macht auch deutlich, dass eine natürliche oder juristische Person eine Beschwerde bei der zuständigen Marktüberwachungsbehörde bezüglich der Nichteinhaltung des KI-Handtuchs einreichen kann und kann erwarten, dass eine solche Beschwerde im Einklang mit den speziellen Verfahren dieser Behörde behandelt wird.

Transparenz und Schutz der Grundrechte

Die vorläufige Vereinbarung sieht eine Folgenabschätzung für die Grundrechte vor, bevor ein risikoreiches KI-System von seinen Einsatzern auf den Markt gebracht wird. Die vorläufige Vereinbarung sieht auch eine erhöhte Transparenz in Bezug auf den Einsatz von risikoreichen KI-Systemen vor. Bemerkenswert ist, dass einige Bestimmungen des Kommissionsvorschlags geändert wurden, um darauf hinzudeuten, dass bestimmte Benutzer eines risikoreichen KI-Systems, die öffentliche Einrichtungen sind, auch verpflichtet sein werden, sich in der EU-Datenbank für risikoreiche KI-Systeme zu registrieren. Darüber hinaus legen neu hinzugefügte Bestimmungen Wert darauf, dass Benutzer eines Emotionserkennungssystems für Benutzer ins Information natürlicher Personen informieren, wenn sie einem solchen System ausgesetzt sind.

Massnahmen zur Förderung der Innovation

Im Hinblick auf die Schaffung eines innovationsfreundlicheren Rechtsrahmens und zur Förderung evidenzbasierter Regulierungserneuerung wurden die Bestimmungen zu Massnahmen zur Förderung der Innovation im Vergleich zum Kommissionsvorschlag erheblich geändert.

Insbesondere wurde klargestellt, dass KI-Regulierungssandkästen, die ein kontrolliertes Umfeld für die Entwicklung, Prüfung und Validierung innovativer KI-Systeme schaffen sollen, auch das Testen innovativer KI-Systeme unter realen Bedingungen ermöglichen sollten. Darüber hinaus wurden neue Bestimmungen hinzugefügt, die die Prüfung von KI-Systemen unter realen Bedingungen unter bestimmten Bedingungen und Schutzmassnahmen ermöglichen. Um den Verwaltungsaufwand für kleinere Unternehmen zu verringern, enthält die vorläufige Vereinbarung eine Liste von Massnahmen zur Unterstützung solcher Betreiber und sieht für einige begrenzte und klar festgelegte Ausnahmen vor.

Inkrafttreten

Die vorläufige Vereinbarung sieht vor, dass das KI-Act zwei Jahre nach seinem Inkrafttreten gelten sollte, mit einigen Ausnahmen für bestimmte Bestimmungen.

Die nächsten Schritte

Nach der heutigen vorläufigen Einigung werden die Arbeiten auf technischer Ebene in den kommenden Wochen fortgesetzt, um die Details der neuen Verordnung abzuschliessen. Die Präsidentschaft wird den Kompromisstext den Vertretern der Mitgliedsstaaten (Coreper) zur Billigung vorlegen, sobald diese Arbeit abgeschlossen ist.

Der gesamte Text muss von beiden Institutionen bestätigt und einer rechtlichen linguistischen Revision unterzogen werden, bevor die Mitgesetzgeber formellen Ad-Ad.

Hintergrundinformationen

Der Vorschlag der Kommission, der im April 2021 vorgelegt wurde, ist ein Schlüsselelement der EU-Politik, um die Entwicklung und Aufnahme im Binnenmarkt sicherer und rechtmässiger KI zu fördern, die die Grundrechte respektiert.

Der Vorschlag folgt einem risikobasierten Ansatz und legt einen einheitlichen, horizontalen Rechtsrahmen für KI fest, der die Rechtssicherheit gewährleisten soll. Der Verordnungsentwurf zielt darauf ab, Investitionen und Innovationen in der KI zu fördern, die Governance und die effektive Durchsetzung des bestehenden Rechts über Grundrechte und Sicherheit zu verbessern und die Entwicklung eines Binnenmarktes für KI-Anwendungen zu erleichtern. Es geht Hand in Hand mit anderen Initiativen, einschliesslich des koordinierten Plans für künstliche Intelligenz, der darauf abzielt, die Investitionen in KI in Europa zu beschleunigen. Am 6. Dezember 2022 erzielte der Rat eine Einigung über einen allgemeinen Ansatz (Verhandlungsmandat) in dieser Akte und nahm Mitte Juni 2023 interinstitutionelle Gespräche mit dem Europäischen Parlament (Ratilogues) ein.

Quelle: Text Rat der EU, 9. Dezember 2023
Künstliche Intelligenz Medien, Wirtschaft und Wissenschaft
Ethische Leitlinien für den Einsatz von künstlicher Intelligenz 2022
und Daten in Lehre und Lernen für Pädagogen
KI-Anwendungen in den Schulen 2023
Datenschutz Sicherheit im Umgang mit digitalen Daten
Sicherheitsinformationen für das Internet
Datenschutz bei Schulwebsites

nach oben

Europäische Union: Cyberstrategie, Datenschutz & Medienrecht
EU-Gerichtshof Weitere Grundsatzurteile zum Medienrecht
Europäisches Parlament Weitere Gesetze zum Medienrecht
EU-Parlament verabschiedet Gesetz über
2024
künstliche Intelligenz
weitere Informationen
Schweiz Totalrevidiertes Datenschutzgesetz (DSG)
2023
Europa Übersicht
Suchmaschinen mit Datensicherheit - Schutz von persönlichen Daten
Sociale Netzwerke Facebook, Netlog ...
Kinderschutz - Jugendschutz Cybermobbing ...
Links
Externe Links

Gerichtshof der Europäischen Union - Curia Europa
EDSB - Europäischer Datenschutzbeauftragter
Europarat
Europäische Union EU
Europäisches Parlament
Europäische Kommission
Rat der Europäischen Union
Digitale Strategie der Europäischen Union
top
zurueck