• Story

Klare Regeln für KI, auch in der Schweiz?

18.07.2024 Am 13. März 2024 hat das EU-Parlament mit grosser Mehrheit ein Gesetz verabschiedet, das Künstliche Intelligenz (KI) reglementiert. Wie sie dies beurteilt, verrät Prof. Dr. Sarah Dégallier Rochat im Interview.

Das Wichtigste in Kürze

  • Das EU-Parlament reguliert seit März diesen Jahres Künstliche Intelligenz (KI).
  • Im KI-Gesetz geht es primär darum, die Anwendungen der Technologie zu regulieren.

  • Diese Regulierung bringt laut Prof. Dr. Sarah Dégallier Rochat sowohl politische als auch wirtschaftliche Herausforderungen mit sich - und hat einen Einfluss auf die Schweiz.

Die Europäische Union hat unlängst ein KI-Gesetz verabschiedet. Kann man KI überhaupt regulieren?

Prof. Dr. Sarah Dégallier Rochat: Vor allem die grossen Tech-Giganten wie Google, Meta, Microsoft und OpenAI behaupten, dass KI nicht regulierbar sei, weil es für sie wirtschaftlich vorteilhaft sei, nicht reguliert zu werden. Seit etwa zehn Jahren gibt es ein wachsendes Misstrauen gegenüber diesen Firmen, da sie immer mächtiger werden. Man wirft ihnen unter anderem vor, den Technologiediskurs zu ihren eigenen Gunsten zu manipulieren. Daher ist es wichtig, diese Narrative von KI als unkontrollierbares Phänomen kritisch zu hinterfragen. In diesem Diskurs wird eher darüber gesprochen, was KI in der Zukunft sein könnte, als was sie heute ist. KI ist keine Zauberformel, sondern erfordert viel Gestaltungsarbeit und damit zahlreiche menschliche Entscheidungen. KI-Systeme können daher so gestaltet werden, dass sie menschliche Werte bestmöglich respektieren (siehe BOX).

 

Im KI-Gesetz geht es aber eigentlich viel mehr darum, die Anwendungen der Technologie zu regulieren als die Technologie selbst. Diese Anwendungen können selbstverständlich reguliert werden: Wir können zum Beispiel entscheiden, dass wir keine Überwachungssysteme mit Gesichtserkennung zulassen wollen. Das ist keine technische, sondern eine politische Entscheidung und hat viel mehr mit den menschlichen Werten zu tun, die wir pflegen möchten, als mit der Technologie selbst.

Was ist KI und wie funktioniert sie?

Künstliche Intelligenz wird im KI-Gesetz als ein maschinenbasiertes System mit einer gewissen Autonomie definiert, das, im Gegensatz zu traditionellen Systemen, bei denen Regeln explizit definiert sind, aus Beispielen lernt und implizit Regeln ableitet. Wir Menschen lernen ebenfalls durch Beispiele. Wir können eine Karotte dadurch erkennen, dass wir bereits viele gesehen haben. Dafür verwenden wir Eigenschaften oder Merkmale, die immer vorhanden sind. Wenn ich nur orange Karotten gesehen habe, werde ich die Farbe "orange" als Merkmal von Karotten festhalten. Das könnte dazu führen, dass ich eine lila Karotte nicht als Karotte erkenne. Die Arbeitsweise von KI ist sehr ähnlich. Daher ist es wichtig, viele und diverse Daten zu haben, damit das System die richtigen Merkmale erkennt.

KI-Systeme können also Muster identifizieren, die in den Daten auftauchen, aber nicht der Realität entsprechen. Dadurch können unerwartete Outputs generiert werden. Dies ist gemeint, wenn gesagt wird, dass KI unvorhersehbar ist. Da die Merkmale nicht explizit definiert sind, wird der Begriff „Black Box“ verwendet: Wenn der Output einer KI wäre, dass eine lila Karotte keine Karotte ist, würde das System mir nicht sagen, dass diese Entscheidung aufgrund der fehlenden orangen Farbe getroffen wurde. Wenn ein HR-System entscheidet, dass eine Person für eine Stelle nicht geeignet ist, wissen wir nicht, auf welchen Merkmalen diese Entscheidung basiert und ob diese Merkmale überhaupt relevant sind. Die Entscheidung ist also nicht nachvollziehbar. Der Fachbereich der erklärbaren KI zielt darauf ab, die Merkmale explizit zu machen.

Wenn wir sagen, dass die Outputs von KI nicht verständlich sind, bedeutet das also nicht, dass wir nicht verstehen, wie KI funktioniert oder dass wir die Outputs nicht kontrollieren können. Automatisierungssysteme haben immer Fehler gemacht und die Outputs können kontrolliert werden, bevor sie in Kraft treten (Safeguarding). Zum Beispiel werden die Outputs von ChatGPT immer überprüft, um sicherzustellen, dass sie keine hasserfüllten Botschaften enthalten. Die Autonomie des Systems kann ebenfalls angepasst werden: Für ein KI-System, das die Temperatur einer Maschine definiert, kann ein Intervall vorgegeben werden, in dem das System autonom agieren kann. Wenn ein Wert überschritten wird, muss ein Mensch die Entscheidung bestätigen. Was ein System tun darf, wird daher immer von den Menschen definiert. Es ist Teil der Konzeptualisierung des Systems, die vollständig vorhersehbar und regulierbar ist.

Eine der grössten Herausforderungen ist die schnelle Entwicklung der Technologie. Regulierungen müssen flexibel genug sein, um mit dieser Dynamik Schritt zu halten, aber gleichzeitig klare Leitlinien und Schutzmassnahmen bieten. Ist das gelungen?

Prof. Dr. Sarah Dégallier Rochat: Die Regulierung von KI ist nicht schwieriger als die Regulierung von medizinischen Anwendungen, bei denen sich die Technologie ebenfalls sehr schnell entwickelt. Die Herausforderung beim KI-Gesetz der Europäischen Union bestand vielmehr darin, einen Kompromiss zwischen den Interessen der Wirtschaft, der Politik und der Bürger*innen zu finden, insbesondere weil es vorher keine Regulierung gab und weil KI in anderen Teilen der Welt noch wenig reguliert wird. Eine Regulierung bedeutet daher mehr Aufwand und Kosten für europäische Unternehmen und kann möglicherweise ihre Wettbewerbsfähigkeit negativ beeinflussen.

 

KI-Systeme können in Bereichen eingesetzt werden, in denen eine (falsche) Entscheidung des Systems enorme Auswirkungen auf das Leben von Menschen haben könnte. Ein gutes Beispiel dafür ist der Skandal in den Niederlanden, wo die Regierung einen Algorithmus verwendet hat, um Kindergeldbetrug schnell aufzudecken. Der Algorithmus war diskriminierend, was dazu führte, dass 600 Eltern fälschlicherweise als Betrüger identifiziert wurden. Zehntausende Euro an Kindergeld wurden zurückgefordert. Einige der Betroffenen verloren ihre Arbeit und ihr Zuhause, Kinder wurden sogar fremd untergebracht. Da es keine Regulierung gab, dauerte es sechs Jahre, bis die Vorwürfe überprüft wurden. Das EU-KI-Gesetz verfolgt einen risikobasierten Ansatz: Es zielt darauf ab, Massnahmen zu ergreifen, um Risiken einer solchen Verletzung der Menschenrechte zu minimieren. In der Schweiz ist es nun möglich, zu verlangen, dass eine von einer KI getroffene Entscheidung von einem Menschen überprüft wird, was auch sicherstellt, dass die Entscheidung begründet werden kann.

Das EU-KI-Gesetz zielt darauf ab, Massnahmen zu ergreifen, um Risiken einer Verletzung der Menschenrechte zu minimieren.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Leiterin Humane Digitale Transformation

«Risikobasierter Ansatz», das klingt ziemlich technisch. Was heisst das genau?

Prof. Dr. Sarah Dégallier Rochat: Dieser Ansatz zielt darauf ab, die Risiken zu minimieren. Die Menschenrechte dienen als Leitlinien für die Definition dieser Risiken. Dies ist in der Wirtschaft üblich, und daher gibt es bereits viel Erfahrung damit. Die Anwendungen werden in verschiedene Kategorien eingeteilt: Je höher das Risiko, desto strenger die Regulierung. Anwendungen werden verboten, wenn das Risiko als unannehmbar angesehen wird, wie zum Beispiel Social Scoring, ein Bewertungssystem, das individuelles Verhalten und soziale Interaktionen in eine numerische Bewertung umwandelt. In China kann eine niedrige Bewertung zu einer Einschränkung der Bürgerrechte, wie dem Zugang zur Bildung oder Gesundheitswesen, führen.

 

Eine Alternative wäre ein menschenrechtsbasierter Ansatz. Das würde bedeuten, dass das Ziel nicht nur darin besteht, die Risiken zu vermindern, sondern auch, die Menschenrechte aktiv zu fördern. Da die Definition der Menschenrechte nicht eindeutig ist, wäre ein solcher Ansatz jedoch schwieriger umzusetzen. Es muss jedoch beachtet werden, dass das KI-Gesetz der Erklärung der Menschenrechte untergeordnet ist und es daher möglich ist, gegen KI-Systeme, die die Menschenrechte verletzen, rechtlich vorzugehen.

Davon bekomme ich als Anwender*in wohl wenig mit…

Prof. Dr. Sarah Dégallier Rochat: Wer einer Minderheit angehört, kann von diesen Systemen gefährdet sein, da sie sowohl die Interessen der Mehrheit als auch die Vorurteile der Gesellschaft widerspiegeln. Deshalb verbietet das KI-Gesetz KI-Systeme, die Menschen nach Rasse, Religion oder sexueller Orientierung kategorisieren. Zudem müssen Entwickler und Betreiber von KI-Systemen das Risiko, dass diese Systeme diskriminierende oder unfaire Entscheidungen treffen, so weit wie möglich reduzieren. Für besonders risikobehaftete Anwendungen, wie etwa emotionale Erkennungssysteme, unterliegen zusätzlichen Transparenzanforderungen.

 

Laut mehrerer Menschenrechtsorganisationen sind aber die Massnahmen zur Bekämpfung der Diskriminierungsrisiken durch KI-Systeme und die Überwachungs- sowie Kontrollmechanismen zur Sicherstellung der Regelkonformität unzureichend. Der Gesetzesentwurf enthält zudem zahlreiche Ausnahmen und Schlupflöcher, die den Einsatz invasiver und überwachungsintensiver Technologien weiterhin ermöglichen. Zum Beispiel werden KI-Systeme, die ausschliesslich zum Zweck der nationalen Sicherheit entwickelt oder genutzt werden, weniger streng kontrolliert und dies unabhängig davon, ob dies durch eine Behörde oder ein privates Unternehmen geschieht. Zusätzlich erlaubt das EU KI-Gesetz den Einsatz von Technologien wie Prädiktive Strafverfolgung, öffentliche Live-Gesichtserkennung, biometrische Kategorisierung gegen Migranten, Menschen auf der Flucht und andere Randgruppen.

Der Gesetzesentwurf enthält zahlreiche Ausnahmen und Schlupflöcher, die den Einsatz invasiver und überwachungsintensiver Technologien weiterhin ermöglichen.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Leiterin Humane Digitale Transformation

Wie sieht es mit KI-Systemen aus, die im Alltag genutzt werden, wie etwa Sprachassistenten oder Empfehlungssysteme?

Prof. Dr. Sarah Dégallier Rochat: Diese Systeme fallen meist in die Kategorie der geringen oder mittleren Risiken und unterliegen daher weniger strengen Vorschriften. Trotzdem müssen sie bestimmte Transparenzanforderungen erfüllen, zum Beispiel müssen Nutzer*innen darüber informiert werden, wenn sie mit einem KI-System interagieren. Bei hochriskanten KI-Systemen müssen ausserdem die zugrundeliegenden Daten und Algorithmen offengelegt werden, um eine unabhängige Überprüfung und Bewertung zu ermöglichen. Diese Massnahmen sollen verhindern, dass KI-Systeme unbemerkt und unkontrolliert Entscheidungen treffen, die die Menschen betreffen.

Aktuell wird viel darüber gesprochen, was das Gesetz alles vorschreibt. Gibt es auch Massnahmen, die Innovationen im Bereich KI fördern?

Prof. Dr. Sarah Dégallier Rochat: Das Gesetz sieht sogenannte KI-Sandboxes vor, also kontrollierte Umgebungen, in denen innovative KI-Systeme entwickelt, getestet und validiert werden können. Diese Sandboxes sollen es ermöglichen, KI-Systeme unter realen Bedingungen zu testen und zu verbessern.  Ausserdem könnte das KI-Gesetz auch Innovation fördern, indem er klare Standards und rechtliche Sicherheit schafft.

Das Alles betrifft ja ausschliesslich die EU. Für die Schweiz bleibt also alles beim Alten?

Prof. Dr. Sarah Dégallier Rochat: Der Bundesrat prüft bis Ende 2024 mögliche Ansätze zur Regulierung von KI und wird darauf basierend Massnahmen ergreifen. Obwohl die Schweiz kein Mitglied der EU ist, wird aber das KI-Gesetz auch Auswirkungen auf Schweizer Unternehmen haben, die mit dem EU-Markt interagieren. Schweizer Unternehmen, die KI-Systeme in der EU verkaufen oder dort Dienstleistungen anbieten möchten, müssen sicherstellen, dass ihre Produkte den neuen EU-Vorschriften entsprechen. Das bedeutet, dass auch Schweizer Unternehmen, die für den Menschen riskante Anwendungen entwickeln, die Sicherheits- und Transparenzstandards einhalten müssen.

 

Der Verein AlgorithmWatch CH hat einen Appell an den Bundesrat gerichtet, mit der dringenden Bitte, den Schutz vor Diskriminierung durch Algorithmen in den Vordergrund der bevorstehenden KI-Regulierungen zu rücken. Sie sind der Ansicht, dass das Thema Diskriminierung durch das EU KI-Gesetz nur teilweise behandelt wird und dass der Gesetzesentwurf keinen ausreichenden Schutz für die Individuen bietet.

Obwohl die Schweiz kein Mitglied der EU ist, wird aber das KI-Gesetz auch Auswirkungen auf Schweizer Unternehmen haben, die mit dem EU-Markt interagieren.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Leiterin Humane Digitale Transformation

Als BFH sind wir ja nicht nur Wissenspartner*in, sondern auch Ausbildungsstätte. Was bedeutet das KI-Gesetz für die Bildungslandschaft in der Schweiz?

Prof. Dr. Sarah Dégallier Rochat: Die Bildungslandschaft in der Schweiz könnte von den neuen Regelungen profitieren, da die Nachfrage nach Fachkräften im Bereich KI und Compliance steigen wird. Es wird in Zukunft immer wichtiger, bei diesen Entwicklungen den Faktor Mensch in den Vordergrund zu stellen, um sicherzugehen, dass Absolvent*innen über das notwendige Wissen zu den rechtlichen und ethischen Aspekten von KI verfügen. Dass die EU sich so umfangreich mit dem Thema beschäftigt, zeigt, wie bedeutend es ist. Die Forschung in diesem Bereich ist daher zentral, um innovative Lösungen zu entwickeln, die den neuen Standards entsprechen. Das Themenfeld Humane Digitale Transformation zielt darauf ab, die Forschung im Bereich der menschenzentrierten Digitalisierung zu fördern und die Ergebnisse in die Lehre, aber auch in die breite Öffentlichkeit und die Wirtschaft zu transferieren.

Die Interviewpartnerin

Prof. Dr. Sarah Dégallier Rochat ist Leiterin des strategischen Themenfelds Humane digitale Transformation an der BFH und Forscherin im Bereich Menschen-Maschinen Interaktion am Institut Human-Centered Engineering (HuCE). Sie hat einen BSc und MSc in Mathematik und einen PhD in Robotik von der EPFL. Sie wurde 2019 mit dem «Industry 4.0 Shapers» Award ausgezeichnet. Sie zielt darauf ab, eine Entwicklung digitaler Technologien zu fördern, die sich an den menschlichen Bedürfnissen orientiert und auf eine inklusive und gerechte Zukunft abzielt.

Mehr erfahren