© (CC0) Created by Midjourney “artificial intelligence, regulation, popup book –ar 16:9”

In Kürze

Künstliche Intelligenz (KI) und KI-Regulierung: Die Technologie entwickelt sich rasend schnell – etwas weniger schnell läuft die politische Diskussion, wie wir damit umgehen wollen. Eine Auslegeordnung verschiedener Ansätze:

  • KI-Moratorium
  • Anwendung und Durchsetzung bestehenden Rechts auf KI
  • Neue Rechtssetzung, spezifische KI-Gesetze
  • Selbstverpflichtungen

Vielen von uns geht es im Umgang mit sogenannten generativen KI-Systemen, beispielsweise Sprachmodellen wie Chat-GPT oder Bart, ein bisschen wie der sprichwörtlichen Maus, die gebannt auf die Schlange starrt. Mir geht es nicht anders, obwohl ich mich doch als ziemlich IT-affin bezeichnen würde. Die Medien sind voll von Beiträgen über Chat-GPT und die neuen Konkurrenzmodelle, über Bildgenerierungssysteme, über den schwindelerregenden Fortschritt von KI-Systemen ganz allgemein. Gleichzeitig scheint die Diskussion darüber, ob und wie wir KI regulieren wollen und sollen, welchen (rechtlichen) Rahmen wir für die Nutzung von KI-Systemen setzen, erst anzufangen. Eine schwierige Situation, in der wir als Parlamentarier:innen in einer besonderen Verantwortung stehen. Mit mehreren Vorstössen versuche ich derzeit, die Diskussion im Nationalrat mit anzustossen. 

Auch international versucht die Politik zu reagierenDie EU ist daran, ein Regulierungspaket für KI zu erarbeiten, auf Ebene Europarat laufen unter Beteiligung der Schweiz Verhandlungen über ein Regelwerk zu KI, im März forderten über 30’000 Forschende und Führungskräfte – unter ihnen Elon Musk – ein Moratorium für die Entwicklung von KI und auf verschiedenen Ebenen gibt es Bestrebungen und Druck auf Selbstverpflichtungen zum Umgang mit KI.

Was taugt was, was nicht? Was ist von den verschiedenen Ansätzen zu halten – im Hinblick darauf, den Nutzen von KI für uns alle zu maximieren und gleichzeitig die Risiken zu minimieren?

  1. Ein KI-Moratorium: dieser Vorschlag stammt von Elon Musk & Co. Also Leuten, welche massiv in KI investiert haben oder sogar selbst KI-Firmen leiten. Wie Watson News hier mit Links auf verschiedene weitere Quellen darlegt, wird der Moratoriumsvorschlag breit kritisiert: Es werde darin auf eine allmächtige KI in fernerer Zukunft fokussiert und damit das Weltbild der Tech-Gurus zementiert. Gleichzeitig werde von der Diskussion, wie die KI hier und jetzt reguliert werden müsste, abgelenkt. Ganz abgesehen davon: Ein Moratorium schützt immer auch Stellung und Marktmacht derjenigen, die im Vorsprung sind.  Ein Schelm, wer böses dabei denkt, wenn Sam Altman, CEO von OpenAI (ChatGPT) monatelang ein Moratorium fordert – und gleichzeitig in der EU gegen “Überregulierung” lobbyiert. Und: Wie soll ein Entwicklungsmoratorium überprüft und durchgesetzt werden? Fazit: Der Vorschlag tönt auf den ersten Blick überzeugender, als er tatsächlich ist. 
     
  2. Anwendung und Durchsetzung bestehenden Rechts auf KI: Die Persönlichkeitsrechte, das Datenschutzrecht (das bei wichtigen Entscheidungen das Recht auf einen persönlichen menschlichen Entscheid enthält), das Urheberrecht, und das verfassungsrechtliche Diskriminierungsverbot gelten. Auch für die Anwendung von KI. Die Frage ist hier: Was braucht es, um diese Rechte fit zu machen, damit man sie im Zusammenhang mit KI-Anwendungen auch durchsetzen kann? Genügen die bestehenden Gesetze oder braucht es Anpassungen, Präzisierungen, Ergänzungen? Diese Fragen habe ich einerseits in einer generellen Interpellation im Nationalrat aufgeworfen. Für den Bereich Diskriminierung stellt sich zudem die spezifische Frage, ob es nicht dringender denn je endlich ein Antidiskriminierungsgesetz braucht, um den verfassungsrechtlichen Schutz vor Diskriminierung auch im Zeitalter von KI zu gewährleisten. Immerhin “lernen” generative KI-Systeme durch das “Aufsaugen” von Millionen Texten und Bildern und reproduzieren damit die darin bestehenden Diskriminierungen.
     
  3. Neue Rechtssetzung, “KI-Gesetz”: Dies ist der Ansatz, den die EU mit ihrer neuen KI-Verordnung eingeschlagen hat. Die grosse Frage hier: Wie eng sind Geltungs- und Anwendungsbereich gefasst? Die EU folgt weitgehend einem risikobasierten Ansatz, mit dem Ziel, zu verhindern, dass der Einsatz KI-basierter Systeme negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen hat. Die jeweiligen gesetzlichen Auflagen hängen von dem jeweiligen Risikopotenzial ab: Inakzeptabel risikoreiche Systeme sind verboten, Hochrisiko-Systeme unterliegen bestimmten Regeln und risikoarme KI-Systeme sind keinen Auflagen unterworfen. Organisationen wie Algorithm-Watch fordern demgegenüber einen breiten Ansatz für sämtliche möglichen Anwendungen (“General Purpose”) und den gesamten Entwicklungszyklus von KI, um z.B. auch die Auswirkungen von Design-Entscheidungen auf die Reproduktion von Diskriminierungen abzudecken. Was tut die Schweiz? Sie schläft einmal mehr den Schlaf der bestenfalls autonom Nachvollziehenden und jedenfalls von EU-Regulierungen Mitbetroffenen. Mein grüner Kollege Gerhard Andrey meint: so verpasst die Schweiz eine Chance: Eine rasch umgesetzte kluge, schlanke prinzipienbasierte KI-Regulierung wäre sogar ein Standortvorteil, ist seine These. Die deutsche Grünenpolitikerin Franziska Brantner hat das KI-Gesetz der EU mitverhandelt. Im Spiegel-Interview (2.2.2024) erklärt sie, warum sie den jetzigen Kompromiss für gelungen hält und was sich für ChatGPT-Nutzer ändern wird.
     
  4. Selbstverpflichtungen: Bis bestehende Regulierungen auch im Bereich KI greifen (etwa durch Musterprozesse in den Bereichen Datenschutz oder Copy-Right) und neue Regeln z.B. der EU für KI in Kraft treten, wird es noch dauern. Deshalb wächst der Druck auf KI-Unternehmen, sich zur sofortigen Selbstkontrolle zu verpflichten. Das gleiche gilt auch für Anwender:innen. Ich schlage vor, dass wir Politiker:innen resp. die Parteien auch in den kommenden Wahlen mit gutem Beispiel vorangehen: Deshalb habe ich den Vorschlag eingebracht, dass sich die Parteien darauf verpflichten, den Einsatz von KI öffentlich zu machen und insbesondere nicht für negatives Campaigning – z.B. die Herstellung verfänglicher Fake-Bilder oder Videos von Politikerinnen und Politikern – einsetzen. P.S.:  “Handglismeti” Bildli wie kreuz und quer in die Landschaft montierte Windräder der SVP wären weiterhin möglich – ob mit oder ohne KI.
    Vergleiche dazu auch den Beitrag auf 10 vor 10
     
  5. Transparenz: Auch behördliche Entscheide erfolgen immer öfter durch algorithmenbasierte  und/oder KI-Systeme. Hier braucht es volle Transparenz über die eingesetzen Techniken. Dies haben Marionna Schlatter und ich mit zwei Postulaten für den Bund und die bundesnahen Betriebe gefordert. 

Ich bin gespannt, wie sich die Diskussion über meine Vorstösse und andere Initiativen entwickeln wird. Klar ist: Der Diskussions- und Handlungsbedarf ist gross. Und das Ziel muss immer sein: Künstliche Intelligenz so einzusetzen, dass sie uns Menschen nützt und nicht schadet, wie dies Angela Müller, die Leiterin von AlgorithmWatch Schweiz, im “Club” pointiert formuliert hat. Dazu gehört für mich als GRÜNER auch – last but not least – dass die Klima- und Umweltauswirkungen durch den Ressourcen- und Stromverbrauch der riesigen Serverfarmen in der Diskussion nicht ausgeblendet werden dürfen.

[Dieser Text lehnt sich sehr eng an den Text in Balthasar Glättlis SWISS GREEN BRIEFING vom 2.6.2023 an]

Sendung in 10 vor 10 vom 5.6.2023: Wie nutzen Schweizer Parteien KI im Wahlkampf? und online Text zu diesem Beitrag auf SRF.