zum Hauptinhalt
Systeme wie der Chatbot „ChatGPT sollen auch von der EU-Gesetzgebung erfasst werden.

© REUTERS/Florence Lo

Scheitert eine Einigung in letzter Minute?: Europas Ringen mit der Künstlichen Intelligenz

Social-Scoring-Systeme, wie sie China schon einsetzt, sollen in Europa verboten werden. Darauf zielt unter anderem das KI-Gesetz, das am Mittwoch im EU-Parlament verabschiedet werden soll.

Im vergangenen Monat hat Sam Altman die wichtigsten Politikerinnen und Politiker Europas getroffen. Der Chef des Unternehmens OpenAI, das die Künstliche Intelligenz (KI) „ChatGPT“ entwickelt hat, traf sich innerhalb weniger Tage unter anderem mit EU-Kommissionschefin Ursula von der Leyen, Bundeskanzler Olaf Scholz, Frankreichs Präsident Emmanuel Macron und dem britischen Premier Rishi Sunak.

Parallel dazu war auch Google-Chef Sundar Pichai auf Europatour und sprach ebenfalls mit Scholz sowie mit Wirtschaftsminister Robert Habeck.

Bei den Gesprächen ging es vor allem um KI. Denn seitdem ChatGPT & Co. dabei sind, die Welt zu revolutionieren, wird auch immer intensiver diskutiert, wie verhindert werden kann, dass die Technologie missbraucht wird.

Einen ersten Versuch zur Regulierung unternimmt das Europaparlament am Mittwoch. Dann soll im Plenum der sogenannte „Artificial Intelligence Act“ verabschiedet werden – ein Gesetz, das den KI-Einsatz regulieren soll. Die EU bewegt sich zwar langsam, doch wenn es um KI geht, hat sie damit schon früh begonnen.

Gestartet ist das Vorhaben schon im April 2021, als die EU-Kommission ihren ersten Entwurf vorlegte. Der Rat der EU-Mitgliedstaaten hat seine Position im Dezember 2022 beschlossen. Wenn das Parlament die Vorlage der zuständigen Ausschüsse am Mittwoch annimmt, kann die finale Etappe beginnen: die abschließenden Trilog-Verhandlungen zwischen Europaparlament, Mitgliedstaaten und der EU-Kommission.

US-Firmen beobachten die EU ganz genau

Dass es sich um ein wichtiges Vorhaben handelt, zeigt sich allein schon daran, wer alles auf den Text der Vorlage Einfluss nehmen wollte: Hersteller von Medizinprodukten, Banken, die Auskunftei Schufa, Organisationen der Zivilgesellschaft und nicht zuletzt Google, Microsoft und OpenAI. Sie alle eint die Frage: Was soll KI zum Wohle des Menschen leisten dürfen, und wo müssen Grenzen gezogen werden?

Wie genau die Tech-Unternehmen in den USA beobachten, was in Straßburg beschlossen wird, zeigt die jüngste Europatour der Firmenchefs. Altman drohte gar, ChatGPT vom europäischen Markt zu nehmen, falls die Regeln zu streng ausfallen. Und Google hat seinen Chatbot „Bard“ bereits in den meisten Ländern der Welt gestartet, aber um die EU einen großen Bogen gemacht.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen von unseren Redakteuren ausgewählten, externen Inhalt, der den Artikel für Sie mit zusätzlichen Informationen anreichert. Sie können sich hier den externen Inhalt mit einem Klick anzeigen lassen oder wieder ausblenden.

Ich bin damit einverstanden, dass mir der externe Inhalt angezeigt wird. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu erhalten Sie in den Datenschutz-Einstellungen. Diese finden Sie ganz unten auf unserer Seite im Footer, sodass Sie Ihre Einstellungen jederzeit verwalten oder widerrufen können.

Bard, ChatGPT und andere sogenannte generative Systeme sind bei der Debatte um KI in den vergangenen Monaten in den Mittelpunkt gerückt. Sie können den Alltag erleichtern und bereichern, aber in einem Worst-Case-Szenario nicht nur zahlreiche Jobs gefährden, sondern auch Demokratien bedrohen – etwa durch die Nutzung für Desinformationskampagnen.

Für die Regulierer ist diese Vielfalt an Einsatzmöglichkeiten eine Herausforderung. ChatGPT kann schön formulierte Antworten auf harmlose Anfragen bei der Internetrecherche liefern – oder zur ausgeklügelten Wahlmanipulation genutzt werden, die unterbunden werden muss.

6
Prozent des Jahresumsatzes müssen Firmen im Höchstfall bei Verstößen gegen das Gesetz als Bußgeld zahlen

Hinzu kommen komplizierte Urheberrechtsfragen, da oft unklar ist, auf welche Informationen ein System zurückgreift, während es einen Text, ein Bild oder auch ein Musikstück generiert.

Im Grundsatz folgt die Verordnung einem risikobasierten Ansatz: Je gefährlicher eine KI-Anwendung ist, desto strikter wird sie reguliert. Auf einigen Gebieten soll der KI-Einsatz verboten werden, etwa bei sogenannten Social-Scoring-Systemen, also Bewertungssystemen des Verhaltens, wie sie China schon einsetzt.

Vor der Abstimmung im Plenum des Europaparlaments gibt es noch Streit über den Einsatz der KI zur Verbrechensbekämpfung.
Vor der Abstimmung im Plenum des Europaparlaments gibt es noch Streit über den Einsatz der KI zur Verbrechensbekämpfung.

© AFP/GEORGES GOBET

Da fängt der Streit jedoch schon an: Zwar besteht weitgehende Einigkeit, dass biometrische Echtzeit-Überwachung mit Gesichtserkennung verboten werden soll. Doch soll im Rahmen der Verbrechensbekämpfung eine nachträgliche Auswertung der Daten erlaubt sein? Darüber herrscht Uneinigkeit.

Der Konflikt hat sogar das Potenzial, die Einigung im EU-Parlament in letzter Minute noch scheitern zu lassen, denn die konservative EVP ist mit dem geplanten weitgehenden Verbot nicht einverstanden und will mit einem Änderungsantrag mehr Befugnisse für die Sicherheitsbehörden durchsetzen.

Ein Kompetenzzentrum vom Bund und den Ländern soll her

Der CDU-Abgeordnete und Berichterstatter für das KI-Gesetz Axel Voss gab sich zuletzt allerdings zuversichtlich, dass die Einigung trotzdem Bestand haben wird. Der Grünen-Parlamentarier Sergei Lagodinsky übte zwar deutliche Kritik am Vorgehen der EVP. Er kündigte aber an, dass sich seine Fraktion dennoch an die Vereinbarung halten wird, statt nun ihrerseits weitere Anträge einzubringen, um eigene Positionen durchzusetzen.

Auch in der Bundesregierung ist dieser Konflikt sichtbar: Während das SPD-geführte Innenministerium an der sogenannten Remote-Überwachung, also der nachträglichen Datenauswertung, festhalten will, plädieren Grüne und FDP für ein umfassendes Verbot.

Der Bund sollte in Zusammenarbeit mit den Ländern eines oder mehrere Kompetenzzentren aufbauen. 

Saskia Esken, SPD-Parteichefin

SPD-Parteichefin Saskia Esken weist zudem darauf hin, dass die Qualität des KI-Gesetzes letztlich davon abhängt, dass es nach der Verabschiedung auch wirksam in den EU-Mitgliedstaaten durchgesetzt wird. Von der Bundesregierung erwartet sie, dass der Bund in Zusammenarbeit mit den Ländern eines oder mehrere Kompetenzzentren aufbaut.

Um sicherzustellen, dass die künftigen KI-Standards eingehalten werden, brauche man „die notwendigen Prüftechnologien und Verfahren“, sagte Esken dem Tagesspiegel zur Begründung. „Hier haben wir deutlichen Aufholbedarf.“ „Zudem sollten wir ein nationales KI-Register aufbauen, das Transparenz schafft und eine gesellschaftliche Debatte über den weiteren Umgang mit KI ermöglicht“, forderte Esken weiter.

Digitalminister Volker Wissing (FDP) ist es hingegen wichtig, „dass wir chancenorientierte Regeln schaffen“. Dies gelte für „Unternehmen, die KI entwickeln, für Bürger, die KI nutzen wollen, und für Behörden, die neue Technologien für die Verwaltung erschließen sollen“, sagte Wissing dem Tagesspiegel. Der Minister kündigte an, sich in den anstehenden Trilog-Verhandlungen zwischen Europaparlament, EU-Mitgliedstaaten und der Kommission dafür einzusetzen, „dass wir schlanke, praxistaugliche Regeln aufstellen, die eine vertrauensvolle Nutzung ermöglichen, ohne Innovationen zu blockieren“.

Gerade mit Blick auf kleine und mittlere Unternehmen sowie Start-ups müsse man „eine gute Balance zwischen Transparenzpflichten und Freiräumen finden“, so Wissing. Mit dem Gesetz wolle man dazu beitragen, „dass KI-Anwendungen in Zukunft verstärkt in Europa und Deutschland entstehen“.

Zu den Bestandteilen des KI-Gesetzes zählt neben den Verboten auch die sogenannte „Hochrisiko-Liste“. Dort werden Anwendungsgebiete aufgeführt, in denen für KI-Systeme strenge Qualitätsanforderungen gelten und vor Markteintritt ein Zulassungsverfahren durchlaufen werden muss. Das soll unter anderem sicherstellen, dass KI im Gesundheitsbereich zuverlässig ist, die Technologie nicht in Unternehmen zu diskriminierenden Personalentscheidungen führt oder die Börsen ohne menschliche Eingriffsmöglichkeiten auf Talfahrt geschickt werden.

Über den konkreten Zuschnitt der Hochrisiko-Liste wird in den abschließenden Beratungen zwischen EU-Parlament, Kommission und den Mitgliedstaaten auch noch heftig gerungen werden. Wird sie zu eng gefasst, könnten viele risikobehaftete Anwendungen durchs Raster fallen und unreguliert bleiben. Auf der anderen Seite besteht die Sorge, dass eine zu umfassende Liste dazu führt, dass die Mehrzahl neuer KI-Tools als hochriskant gilt und durch die strengen Auflagen Innovationen abgewürgt werden. Auch muss die Abgrenzung der Risikoklassen noch geschärft werden. So zeigt etwa eine Untersuchung der Industrie-Initiative Applied AI, dass bei 40 Prozent der bestehenden Anwendungen nicht eindeutig wäre, ob sie als hochriskant eingestuft werden müssten oder nicht.

Was ist überhaupt riskant und was nicht?

Die entscheidende Frage ist nun, wie die Basismodelle hinter ChatGPT & Co. im Gesetz behandelt werden. Sorgen darum machen sich nicht nur OpenAI-Chef Altman und der Google-Vorstandsvorsitzende Pichai, sondern auch deutsche Unternehmer wie Johannes Otterbach. Er hat selbst fast drei Jahre bei OpenAI gearbeitet und will nun als Technikchef der gerade gegründeten Firma Nyonic ähnliche Anwendungen für die Industrie entwickeln. Das Start-up mit Sitz in Berlin hat dafür sogar Feiyu Xu, KI-Chefin des Softwareriesen SAP, abgeworben. „Das Worst-Case-Szenario wäre es, wenn KI-Basismodelle per se als Hochrisiko-Technologie eingestuft würden“, sagt Otterbach.

Das fürchtet auch Hans Uszkoreit, ein KI-Veteran, der vom Deutschen Forschungszentrum für Künstliche Intelligenz zu Nyonic gewechselt ist. „Man versucht zu früh, alle möglichen Verwendungszwecke einer Technologie grundsätzlich zu regeln“, sagt er – und zieht einen Vergleich: Es gebe auch Spezialfahrzeuge, die etwa im Tagebau hervorragend funktionierten, aber im allgemeinen Straßenverkehr nicht zugelassen seien, weil sie viel zu groß und schwer sind. Auf das Anwendungsgebiet kommt es an.

Die EU-Abgeordneten wollen grundlegende Modelle nun berücksichtigen, indem sie dafür in der Verordnung eine eigene Kategorie schaffen, bei der einerseits geschaut wird, in welchen Bereichen ein Tool eingesetzt werden kann. Zusätzlich soll aber geprüft werden, ob mit dem konkreten Fall tatsächlich ein „signifikantes Risiko“ einhergeht. Das ist jedoch sehr abstrakt – was genau ein „signifikantes Risiko“ sein soll, beantwortet die Version des Parlaments nicht. An dieser Stelle muss im Trilog weitergearbeitet werden.

Man versucht zu früh, alle möglichen Verwendungszwecke einer Technologie grundsätzlich zu regeln.

Hans Uszkoreit, KI-Veteran

Ohnehin ist das letzte Wort noch lange nicht gesprochen. Die Kommission will den Trilog noch am Abend nach dem Votum im Parlament starten – und ihn bis Jahresende abschließen. Sonst kommen die bevorstehenden Europawahlen dazwischen, und die Finalisierung des Gesetzes würde sich um viele Monate verzögern.

EU-Wettbewerbskommissarin Margrethe Vestager setzt auf einen freiwilligen Verhaltenskodex, der schnell wirkt.
EU-Wettbewerbskommissarin Margrethe Vestager setzt auf einen freiwilligen Verhaltenskodex, der schnell wirkt.

© REUTERS/RITZAU SCANPIX

Zudem wird es noch dauern, bis die neuen Regeln greifen. So betonte die EU-Wettbewerbskommissarin Margrethe Vestager, dass die Verordnung voraussichtlich erst im Jahr 2026 EU-weit in Kraft treten wird. Es braucht lange, um die Umsetzung vorzubereiten. In der Zwischenzeit setzt die Dänin auf einen freiwilligen Verhaltenskodex, auf den sich in der Branche tätige Unternehmen verpflichten sollen. Nach der Vorstellung Vestagers sollen sich nicht nur die EU, Großbritannien und die USA dem Kodex anschließen, sondern auch Kanada, Japan und Indien. Die britische Regierung hat letzte Woche für Herbst ein internationales Treffen angekündigt, um koordinierte Maßnahmen zu vereinbaren.

Verstöße sollen keine Lappalie sein

Verzögerungen im Trilog drohen auch, weil die US-Konzerne weiterhin versuchen werden, Einfluss zu nehmen. Schließlich hat das KI-Gesetz das Zeug, Microsoft, Google und Co. stark zu regulieren. Das liegt daran, dass EU-Gesetze für alle Unternehmen gelten, die ihre Produkte auf den europäischen Binnenmarkt bringen wollen – „unabhängig davon, ob ihr Hauptsitz innerhalb oder außerhalb der EU ist“, wie die FDP-Europaabgeordnete Svenja Hahn erklärt. „Auch amerikanische Unternehmen werden ihre KI-Produkte für den europäischen Markt in Einklang mit dem KI-Gesetz bringen müssen“, sagt sie.

Wenn das KI-Gesetz in Kraft tritt, wird es für Entwickler der Künstlichen Intelligenz ernst. Denn bei Verstößen drohen Bußgelder in Höhe von bis zu 30 Millionen Euro oder sechs Prozent des Jahresumsatzes. 

Angesichts der rasanten technologischen Entwicklungen muss sich in einigen Jahren allerdings noch zeigen, ob das KI-Gesetz, wenn es in Kraft tritt, überhaupt noch auf der Höhe der Zeit ist.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false