KI beim Bund braucht transparente Folgeabschätzung
In Kürze
- KI und automatische und oder teilautomatisierte Systeme werden auch beim Bund eingesetzt.
- Meine Motion will die Bundesverwaltung verpflichten, bei der Verwendung von algorithmischen und KI-basierten Systemen eine Folgenabschätzung zu grundrechtlichen und gesellschaftlichen Risiken durchzuführen und deren Resultate transparent zu machen, wie dies auch die KI Konvention des Europarats verlangt.
- Die Motion ist politisch breit abgestützt. Sie wurde von Politiker:innen sämtlicher Fraktionen im Nationalrat mitunterzeichnet.
- Den Anstoss zu dieser überparteilichen Zusammenarbeit gab die parlamentarische Gruppe Digitale Nachhaltigkeit ParlDigi, welche mit Expedition Zukunft eine Workshopreihe zu Künstlicher Intelligenz organisierte.
- Wesentliche inhaltliche Inputs für den Vorstoss lieferte Algorithm Watch Schweiz.
- Der Vorstoss nimmt Forderungen aus dem Appell von 2023 auf: Zivilgesellschaft fordert: Kein Abwarten bei der Regulierung von KI und ADM-Systemen
Das Titelbild wurde mit künstlicher Intelligenz (Midjourney) erzeugt.
Die Motion 24.3796 wird wie folgt begründet:
Systeme, die auf Künstlicher Intelligenz (KI) oder Algorithmen basieren, können Prognosen erstellen, Empfehlungen machen, Entscheidungen fällen und Inhalte generieren. Auch öffentliche Verwaltungen in der Schweiz testen oder verwenden solche Systeme vermehrt. Diese Systeme bergen Chancen für mehr Effizienz in der Verwaltung, aber auch Risiken in Bezug auf die Grundrechte oder demokratische und rechtsstaatliche Prozesse.
Insbesondere können sie diskriminierende Auswirkungen auf bestimmte Bevölkerungsgruppen mit sich bringen. In den Niederlanden gerieten Tausende von Familien in existenzielle Not, als ein diskriminierender Algorithmus sie fälschlicherweise dazu aufforderte, staatliche Kinderbetreuungsgelder zurückzuzahlen. In Österreich berechnete ein Algorithmus die Wahrscheinlichkeit, dass Arbeitslose wieder in den Arbeitsmarkt eingegliedert werden. Dieser vergab Minuspunkte, wenn Arbeitslose Fürsorgepflicht hatten – aber nur dann, wenn es sich um Frauen handelte.
Diese Risiken sind abhängig von Kontext, Zweck und Art und Weise der Anwendung. Darum müssen die Behörden diese Risiken systematisch prüfen.
Eine erste Stufe der Risikoabschätzung ermöglicht dabei rasch und ohne grossen Aufwand eine Triage von risikoarmen und risikoreichen Anwendungen. Einzig dann, wenn sich bei dieser Triage-Stufe Risikosignale zeigen, ist eine umfassendere Folgenabschätzung vorzunehmen. Die Ergebnisse dieser Folgenabschätzung sind transparent zu machen und zu diesem Zweck in einem Verzeichnis zugänglich zu machen.
Die Notwendigkeit einer solchen Folgenabschätzung ist bereits in der KI-Konvention des Europarats festgelegt. Die Schweiz wird daher einen solchen Mechanismus einführen müssen, um das Übereinkommen ratifizieren zu können. Auch die Verordnung zum AI Act der Europäischen Union sieht eine grundrechtliche Folgenabschätzung bei der Verwendung von Hochrisiko-KI-Systemen durch die öffentliche Verwaltung vor, die transparent gemacht werden muss.
Mitunterzeichnende: ANDREY GERHARD ARSLAN SIBEL BERTSCHY KATHRIN BLUNSCHY DOMINIK CHAPPUIS ISABELLE COTTIER DAMIEN FLACH BEAT GUGGER NIKLAUS-SAMUEL MARTI MIN LI PAMINI PAOLO RYSER FRANZISKA SCHAFFNER BARBARA SCHLATTER MARIONNA WERMUTH CÉDRIC ZYBACH URSULA