Künstliche Intelligenz: Einigung zum „AI Act“ EU will KI-Anwendungen regulieren

EU: AI Act - Künstliche Intelligenz Gesetz
EU: AI Act – Künstliche Intelligenz Gesetz.
Brüssel (Europa) hat die weltweit erste KI-Regulierung der Welt beschlossen.

Die EU bekommt ein Regelwerk für den Einsatz von Künstlicher Intelligenz. Nach zähen Verhandlungen haben sich Unterhändler von Europaparlament und EU-Staaten auf Grundzüge des „AI Act“ geeinigt. Raum für Innovation soll es aber trotzdem geben.

Für den Einsatz von Künstlicher Intelligenz (KI) sollen in der EU künftig strengere Regeln gelten. Unterhändler von Europaparlament und EU-Staaten verständigten sich in Brüssel nach langen Verhandlungen auf den „AI Act“. Nach Angaben des EU-Parlaments handelt es sich um das weltweit erste KI-Gesetz.

EU-Binnenmarktkommissar Thierry Breton bezeichnete die Vereinbarung im Kurzbotschaftendienst X, früher Twitter, als „historisch“. Die EU werde der allererste Kontinent, der klare Regeln für die Nutzung von KI setzen würde. EU-Kommissionspräsidentin Ursula von der Leyen erklärte, das Rahmenwerk würde Sicherheit und Grundrechte von Menschen und Unternehmen“ schützen.

Verschärfte Vorgaben für „risikoreiche“ Anwendungen

Die beiden Seiten werden in den kommenden Tagen Einzelheiten aushandeln, die die Form der endgültigen Rechtsvorschriften verändern könnten. Das Europaparlament und die Staaten müssen dem Vorhaben noch zustimmen, das gilt aber als Formsache. Die Regeln sollen unter anderem die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen, dass bei der KI-Entwicklung keine Urheberrechte verletzt werden.

Außerdem müssen Entwickler klar kenntlich machen, dass durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne auf dieser Technologie beruhen. Verschärfte Vorgaben soll es für „risikoreiche“ Anwendungen geben, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und Personalverwaltung. Dort sollen eine Kontrolle durch den Menschen über KI, eine technische Dokumentation und ein System zum Risikomanagement festgeschrieben werden.

Die Hoffnung ist, dass die EU-Regeln weltweit Nachahmer finden. Die meisten anderen Staaten haben bislang vor allem Verordnungen und Dekrete erlassen. Außerdem könnte der „AI Act“ als Blaupause für diejenigen dienen, denen die Regelungen der USA zu locker und die Auflagen Chinas zu restriktiv sind.

OpenAI als Technologievorreiter

Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen eingesetzt.

Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Auch selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.

Das Thema Künstliche Intelligenz hatte vor rund einem Jahr durch die Veröffentlichung des Chatbots ChatGPT durch das US-Unternehmen OpenAI an Prominenz gewonnen. Das Programm ist in der Lage, mit Hilfe von Künstlicher Intelligenz aus sehr kurzen Eingabeaufforderungen beispielsweise Essays, Gedichte oder Unterhaltungen zu generieren. ChatGPT machte die Möglichkeiten der KI damit schlagartig einem großen Publikum bewusst. Zugleich wuchsen die Befürchtungen über mögliche Gefahren der Technologie.

EU-Staaten beharrten auf Ausnahmen

Die EU-Kommission hatte das Gesetz im April 2021 vorgeschlagen. Zuletzt wären die Verhandlungen allerdings fast gescheitert – an der Frage der Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählen etwa GPT.

Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Aber auch die geplanten Regeln zur Gesichtserkennung durch KI, etwa zu Zwecken der Nationalen Sicherheit, sorgten für Streit. Die EU-Staaten beharrten auf Ausnahmen.

Digital- und Verkehrsminister Volker Wissing appellierte an die EU, international abgestimmt vorzugehen und „keinen Alleingang“ zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

EU einigt sich auf erstes KI-Gesetz weltweit – Einordnungen und die Reaktionen darauf

Quelle: https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html


Biometrische Überwachung & Co.: EU-Gremien einigen sich auf umfassende KI-Regeln

Nach tagelangen Verhandlungen steht die erste EU-Verordnung für Künstliche Intelligenz. Automatisierte Gesichtserkennung gehörte zu den großen Knackpunkten.​

Nach einem insgesamt gut 36-stündigen „Ultra-Marathon“, der nur von einer längeren Pause am Donnerstag unterbrochen wurde, haben sich die Unterhändler des EU-Parlaments, des Ministerrats und der Kommission in Brüssel auf einen Kompromiss zur die geplante EU-Verordnung für Systeme mit Künstlicher Intelligenz (KI) verständigt.

Ein besonders umkämpfter Punkt war zuletzt das vom EU-Parlament geforderte Verbot biometrischer Massenüberwachung etwa durch automatisierte Gesichtserkennung in Bereichen wie der Strafverfolgung. Die Mitgliedsstaaten hingegen wollten das von Anfang an durchsetzen und übten massiv Druck auf die Abgeordneten aus, auf ihren Kurs umzuschwenken.

Der Streit um die biometrische Überwachung hatte eine Einigung noch am Donnerstag verhindert. Die Regierungsvertreter hätten dem Parlament Daumenschrauben angelegt, hieß es von zahlreichen zivilgesellschaftlichen Organisationen wie European Digital Rights (EDRi) und AlgorithmWatch in einem Brandbrief, „um Interessen der nationalen Sicherheit und der Industrie über den Schutz der Rechte der Menschen zu stellen“.

Auf der anderen Seite hatte die Innenministerkonferenz von Bund und Ländern noch am Freitag gewarnt, sollte die KI-Verordnung in der Parlamentsfassung erlassen werden, „würde dies zu schwerwiegenden Einschränkungen der Aufgabenerfüllung der Sicherheitsbehörden und Risiken für die öffentliche Sicherheit führen“. Der Rat machte sich noch während der abschließenden Verhandlungen etwa dafür stark, dass bei schweren Straftaten der Einsatz biometrischer Gesichtserkennung in Echtzeit sowie „Racial Profiling“ ermöglicht werden sollten.

Laut dem nun vereinbarten Text sollen biometrische Kategorisierungssysteme, die sensible Merkmale etwa über politische, religiöse, philosophische Überzeugungen, die sexuelle Orientierung oder zur ethnischen Herkunft verwenden, grundsätzlich verboten werden. Die Verhandlungsführer einigten sich aber auch auf eine Reihe von engen Ausnahmen für den Einsatz biometrischer Identifikationssysteme im öffentlichen Raum zu Strafverfolgungszwecken mit richterlichen Genehmigung und für einen festen Straftatenkatalog.

Eine nachträgliche automatisierte Suche nach Gewalttätern mithilfe von Gesichtserkennung, wie sie die Hamburger Polizei in einer umstrittenen Aktion nach dem G20-Gipfel durchführte, soll gezielt im Kampf gegen schwere Straftaten zulässig sein. Auch eine Echtzeit-Identifikation soll nach Parlamentsangaben „zeitlich und örtlich begrenzt“ möglich werden zur gezielten Suche nach Opfern von Entführungen, Menschenhandel und sexueller Ausbeutung oder zur Abwehr „einer konkreten und gegenwärtigen terroristischen Bedrohung“. Als weiterer Zweck wird die Suche nach Verdächtigen genannt, denen eine schwere Straftat wie Terrorismus, Mord, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung oder Umweltkriminalität zur Last gelegt wird.

Ein zweiter großer Streitpunkt war die Regulierung sogenannter Basismodelle wie das hinter ChatGPT stehende GPT, Gemini, LaMDA oder LLaMA, die auf einer umfangreichen Datenbasis trainiert werden und an eine breite Palette unterschiedlicher Aufgaben angepasst werden können. Laut der Übereinkunft müssen die großen KI-Player mögliche Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit unter Einbeziehung unabhängiger Experten prüfen und gegebenenfalls abmildern.

Für „hochwirksame“, breit einsetzbare KI-Modelle mit systemischem Risiko gelang es den Unterhändlern des Parlaments, besonders strengere Verpflichtungen durchzusetzen. Sie müssen unter anderem auch Tests mit gegnerischen Angriffen durchführen, der Kommission schwerwiegende Vorfälle melden und über ihre Energieeffizienz Bericht erstatten. Die Kommission soll eine einschlägige Liste der betroffenen Systeme aufstellen.

Anbieter nicht systemischer, vorab trainierter KI-Modelle können zusätzlichen Auflagen laut der Absprache entgehen, wenn sie diese „der Öffentlichkeit im Rahmen einer Lizenz zugänglich“ machen, „die den Zugriff, die Nutzung, Änderung und Verbreitung des Modells ermöglicht“. Auch die genutzten Parameter müssten öffentlich einsehbar sein.

Open-Source-Modelle mit öffentlich verfügbaren Einflussgrößen bleiben ebenfalls außen vor, solange sie nicht in die Kategorien hochriskanter oder verbotener Technologien fallen oder mit einer besonderen Manipulationsgefahr verknüpft sind. Juristen dürften sich noch darüber streiten, ob dies etwa für LLaMA von Meta gilt.

Als quantitativer Schwellenwert kann unter anderem die zum Trainieren des Modells verwendete Rechenleistung herangezogen werden. Ein neuer Anhang zum Gesetzestext sieht vor, dass das geplante europäische KI-Amt die Kriterien auf Grundlage einer wissenschaftlichen Bewertung entwickeln soll. Dabei wird es etwa auch auf die Anzahl geschäftlichen Nutzer und die der eingeflossenen Parameter ankommen.

Betreiber großer KI-Basismodelle müssten eine Zusammenfassung der verwendeten Trainingsdaten öffentlich machen, wobei Geschäftsgeheimnisse ausgenommen sind. Dies soll Experten helfen, etwa die Genauigkeit der Quellen, mögliche Verzerrungen und dagegen ergriffene Schritte bewerten zu können.

Das Parlament wollte, dass vor allem mittelständische Firmen KI-Lösungen entwickeln können ohne übermäßigen Druck von Branchenriesen, die die Wertschöpfungskette kontrollieren. Zu diesem Zweck fördert die Vereinbarung sogenannte regulatorische Sandkästen als Testumgebungen, die von nationalen Behörden eingerichtet werden, um innovative KI vor der Markteinführung zu entwickeln und zu trainieren.

Verhaltenskodizes der Industrie sollen lediglich als Übergangsmaßnahmen anerkannt werden, bis harmonisierte Standards vorliegen. Die Kommission kann zudem mit sogenannten delegierten Rechtsakten eingreifen, wenn Vereinbarungen zu lange dauern. Hierzulande sprach sich etwa die Datenschutzkonferenz gegen ein sanktionsloses Konzept der Selbstregulierung bei KI-Basismodellen aus, für das Deutschland, Frankreich und Italien eintraten.

Große Konzerne und Verbände warnten wiederholt vor einer Überregulierung von Basismodellen. Sie sahen europäische Innovationen und Startups wie Aleph Alpha und Mistral AI gefährdet. Der Bundesverband IT-Mittelstand (BITMi) und der EU-Dachverband European Digital SME warben indes in letzter Minute dafür, neben KI-Anwendungen auch sehr große Modelle zu regulieren: Sie sollten sich einer Konformitätsbewertung durch Dritte unterziehen müssen, um eine faire Verteilung der Verantwortlichkeiten zu gewährleisten. Ansonsten würde die Pflicht zur Einhaltung der Vorschriften auf die nachgelagerten Anwender inklusive kleine und mittlere Firmen verlagert.

Die vereinbarte Verordnung folgt einem risikobasierten Ansatz. Ziel ist es, einen einheitlichen Rechtsrahmen für KI festzulegen. Gefährliche Praktiken wie der Einsatz von KI für Social Scoring, für das wahllose Sammeln von Gesichtsbildern aus dem Internet, das Ausnutzen von Sicherheitslücken oder menschlicher Schwächen und die Manipulation des freien Willens werden untersagt. Verboten wird auch Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen.

Darüber hinaus können KI-Systeme mit hohem Risiko nur auf den EU-Markt gebracht werden, sofern sie verbindliche Anforderungen erfüllen. Dies dürfte etwa für Suchmaschinen mit KI-Unterstützung etwa über ChatGPT oder Bard gelten. Nutzer sollen in die Lage versetzt werden, Verfahren zu verstehen und zu kontrollieren. KI-Systeme mit hohem Risiko müssen mit einer Dokumentation und einer Art Gebrauchsanweisung versehen werden. Die Nichteinhaltung der Regeln kann je nach Verstoß und Größe des Unternehmens zu Bußgeldern zwischen 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes führen.

EU-Kommissar Thierry Breton freute sich auf X (vormals Twitter) am späten Freitagabend über den „historischen“ Deal: „Die EU ist der erste Kontinent überhaupt, der klare Regeln für den Einsatz von KI festlegt.“ Der „AI Act“ sei „viel mehr als ein Regelwerk – er ist eine Startrampe für EU-Startups und Forscher, um das globale KI-Wettbewerb anzuführen“.

Für die EU-Parlamentspräsidentin Roberta Metsola steht die Verordnung für den Willen Europas, die Welt bei digitalen Innovationen basierend auf den Werten der Gemeinschaft wie den Schutz der Privatsphäre anzuführen. Die Vorgaben würden zweifelsohne den globalen Standard für die nächsten Jahre setzen.

Quelle: https://www.heise.de/news/Biometrische-Ueberwachung-Co-EU-Gremien-einigen-sich-auf-umfassende-KI-Regeln-9569450.html


Kindesmissbrauch: EU-Verordnung zu KI „Super-Gau für Polizei“?

EU AI Act: Kindesmissbrauch: EU-Verordnung zu KI "Super-Gau für Polizei"?

Sicherheitsbehörden nutzen künstliche Intelligenz, um Verbrechen aufzuklären und Gefahren abzuwehren. Eine geplante Verordnung der EU könnte das allerdings torpedieren, befürchtet Niedersachsens Innenministerin.

„Das wäre eine Katastrophe“, sagte Daniela Behrens (SPD) mit Blick auf die aktuelle Version der EU-Verordnung zur Anwendung künstlicher Intelligenz (KI). Sie wird derzeit im EU-Parlament behandelt und setzt der Anwendung von KI so enge Grenzen, dass laut Ministerium auch Sicherheitsbehörden eingeschränkt würden.

Kinderpornografie: Polizei wertet Massendaten aus

Das Landeskriminalamt in Hannover hat für die Bekämpfung von sexuellen Kindesmissbrauch eine Software entwickelt, die Fotos mithilfe von künstlicher Intelligenz abgleicht. So könnten Opfer und Täter schneller identifiziert werden. „Wenn das Polizistinnen und Polizisten händisch durchsuchen müssten, wäre das der absolute Super-Gau für die Ermittlungen“, so Behrens im Interview mit dem NDR Niedersachsen. In den letzten Jahren waren die sichergestellten Datenmengen immer mehr geworden – Millionen von Bildern und Videos werden aktuell ausgewertet.

Beschlussvorschlag für Innenministerkonferenz

Die neue Verordnung könnte laut Ministerin dazu führen, dass Ermittler und Ermittlerinnen KI-Instrumente nicht mehr nutzen dürften. Sie hat deshalb gemeinsam mit den Ländern Hamburg und Hessen einen Beschlussvorschlag geschrieben, den alle Innenminister Deutschlands bei ihrem Treffen in Berlin verabschieden sollen: Demnach soll die Bundesregierung darauf drängen, dass es für Polizeibehörden eine Ausnahme der Verordnung gibt. Diese soll laut EU-Parlament dem Wildwuchs bei der Anwendung von KI vorbeugen und für Transparenz sorgen. Es wäre das erste weltweit umfassende Gesetz, dass sich mit dem Risiko und Nutzen von künstlicher Intelligenz befasst.

Gesichteranalyse an öffentlichen Orten

In dem Schreiben an alle deutschen Innenminister, das dem NDR vorliegt, geht es auch um den Einsatz von Systemen, die an Flughäfen oder Bahnhöfen schwerste Straftaten verhindern sollen, in dem sie Gesichter scannen und möglicherweise identifizieren. Auch diese Einsätze wären laut EU-Verordnung offenbar nicht mehr möglich. Hier drängt vor allem das Land Hamburg, den Passus zu verändern. In Niedersachsen kommen solche Systeme nicht zum Einsatz. Die oppositionelle CDU drängt darauf, sie auch hierzulande einzuführen. Innenministerin Daniela Behrens aber hält solche Instrumente nicht für notwendig, sagte sie dem NDR.

Quelle: https://www.ndr.de/nachrichten/niedersachsen/Kindesmissbrauch-EU-Verordnung-der-Super-Gau-fuer-die-Polizei,ki246.html


Überwachung und Ausnahmen für Strafverfolgung: Hört sich erst mal alles ganz gut an, es hätte schlimmer kommen können – viel Schlimmer.

Zivilgesellschaftlichen Organisationen wie European Digital Rights (EDRi) und AlgorithmWatch usw. Politiker/Parteien (Grüne/Piraten) usw. und Organisationen wie Amnesty International usw.

versuchen bis zum Schluss Strafverfolgungsbehörden zurück in die Steinzeit zu versetzen.

Man müsste sich mal die die Ironie vorstellen: Das Strafverfolgungsbehörden eine Kaffeemaschine nutzen die mit Künstliche Intelligenz ausgestattet ist um diesen die Arbeitszeit so bequem wie möglich zu machen. Vielleicht noch einem Roboter der ebenfalls Künstliche Intelligenz hat diesen ihnen denn Kaffee ins Büro bringt. Da sind Grüne/Piraten-Parteien/Politiker total begeistert von, jetzt haben Strafverfolgungsbehörden doch mehr Zeit im Büro um Kinderpornografie ohne Künstliche Intelligenz durch zu sichten.

Es ist wichtig Künstliche Intelligenz nicht aus Strafverfolgungsbehörden zu verbannen. Wie soll dann erst vertrauen und Akzeptanz geschaffen werden wenn Künstliche Intelligenz in Strafverfolgungsbehörden keine Chance bekommt. Künstliche Intelligenz wir in einigen Jahren der Goldstandart zu Strafverfolgung sein und ein GameChanger der Strafverfolgungsbehörden bzw. Strafverfogung. Ich bin für so eine Zukunft und freue mich sehr drauf.

Ich hoffe ja das in der WfbM-Werkstatt für behinderte Menschen: Die nicht bei der Europawahl wählen gehen und sich nicht für Computer interessieren, vielleicht mal die Nachrichten schauen. Dann sehen diese was die EU macht anstatt sinnlos in der WfbM als Tellerwäscher, WC-Putzkraft zu arbeiten oder sinnlos Weihnachtsgebäck zu verpacken.

Dafür gehe ich zum Beispiel wählen, für die Strafverfolgungsbehörden 4.0 der Zukunft. Das sind dann Menschen die meine Interessen verteidigen. Bei der EU dann auch aus verschieden Ländern

Heute ist wieder so ein toller und genialer Tag wo ich mich freue nicht in die WfbM zu gehen.

Da freut man sich über den Kompromiss im AIAct und andere nerven ein in der WfbM was sie für ein schlechten Tag haben: Depression, unbegründete Angst vor irgendwas haben oder ihrer Schizophrenie und das man wieder ins Krankenhaus möchte. Einfach nur Öde/Langweilig diese Menschen und Orte, vor allem interessiert es mich nicht da ich viel spannendere und interessante Themen habe und beobachte. Immer Quietsch-Vergnügt bin, vor allem wenn die Zukunft von Strafverfolgungsbehörden und Strafverfolgung super aussieht.

Wie gesagt: Künstliche Intelligenz wir in einigen Jahren der Goldstandart zu Strafverfolgung sein und ein GameChanger der Strafverfolgungsbehörden bzw. Strafverfolgung. Daran glaube ich ganz fest und das es mehr vertrauen und Akzeptanz von Menschen zur Künstliche Intelligenz in Strafverfolgungsbehörden ( Strafverfolgung) geben wird. Ich bin für so eine Zukunft und freue mich sehr drauf.

Christian Dauck