Schutz vor Diskriminierung beim Einsatz von KI und Algorithmen
In Kürze
- Eines der grössten Probleme beim Einsatz von KI aber auch von konventionellen Algorithmen ist die Gefahr der Diskriminierung
- Meine Motion verpflichtet den Bundesrat, die heute fehlenden gesetzliche Grundlagen zum Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen.
- Die Motion ist politisch breit abgestützt. Sie wurde von Politiker:innen sämtlicher Fraktionen im Nationalrat mitunterzeichnet.
- Den Anstoss zu dieser überparteilichen Zusammenarbeit gab die parlamentarische Gruppe Digitale Nachhaltigkeit ParlDigi, welche mit Expedition Zukunft eine Workshopreihe zu Künstlicher Intelligenz organisierte.
- Wesentliche inhaltliche Inputs für den Vorstoss lieferte Algorithm Watch Schweiz.
- Der Vorstoss nimmt Forderungen aus dem Appell von 2023 auf: Zivilgesellschaft fordert: Kein Abwarten bei der Regulierung von KI und ADM-Systemen
Das Titelbild wurde mit künstlicher Intelligenz (Midjourney) erzeugt.
″Der Bundesrat wird beauftragt, die gesetzlichen Bestimmungen zu schaffen oder anzupassen, um einen angemessenen Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen.″
So lautet die breit abgestützte Forderung. Die Begründung der Motion 24.3795:
Eines der grössten Risiken von voll- und teilautomatisierten Entscheidverfahren liegt anerkanntermassen in der Diskriminierung. Dies hat relevante Auswirkungen zum Beispiel bei der Wohnungsvergabe, der Berechnung von Versicherungsprämien und Kreditwürdigkeit oder bei der Bearbeitung von Stellenbewerbungen.
Leider ist aber der allgemeine Diskriminierungsschutz von Artikel 8 Abs. 2 BV (welcher in Verbindung mit Art. 35 Abs. 3 BV auch zwischen Privaten gelten müsste) heute gesetzlich nicht konkretisiert. Dies soll geändert werden. Bei (teil)automatisierten Entscheidverfahren ist dabei insbesondere zu berücksichtigen, dass Diskriminierungen nicht nur direkt, sondern auch indirekt (via
Proxy) erfolgen können, und dass wegen des Skalierungseffekts sehr viele Personen betroffen sein können.
Je nach Risiko der Anwendung braucht es deshalb auch angemessene Transparenz- und Sorgfaltspflichten inkl. Folgeabschätzungen.
Besondere zu berücksichtigen ist schliesslich die Rechtsdurchsetzung. Diese darf nicht daran scheitern, dass eine individuelle Beweisführung gerade bei KI-Anwendungen ohne transparenten und eindeutigen Entscheidmechanismus sehr schwierig oder technisch unmöglich ist (Black Box Problematik).
Der Bundesrat macht ja bereits mit Auftrag vom 22.11.2023 eine interdepartementale Auslegeordnung zur KI Regulierung. Der hier geforderte Diskriminierungsschutz kann gegebenenfalls in darauf folgende Gesetzgebungsverfahren integriert und wenn möglich und sinnvoll auch mit internationalen Regulierungen abgestimmt werden.
Mitunterzeichnende: ANDREY GERHARD – GRÜNE ARSLAN SIBEL – GRÜNE BERTSCHY KATHRIN – GLP BLUNSCHY DOMINIK – Mitte CHAPPUIS ISABELLE – Mitte FELLER OLIVIER – FDP. Die Liberalen GOLAY ROGER – MCG GREDIG CORINA – GLP GRÜTER FRANZ – SVP GUGGER NIKLAUS-SAMUEL – EVP JOST MARC – EVP MARTI MIN LI – SP PAMINI PAOLO – SVP SCHLATTER MARIONNA – GRÜNE STORNI BRUNO – SP WEICHELT MANUELA – GRÜNE ZYBACH URSULA – SP