• Story

Des règles claires en matière d’IA: en Suisse aussi?

18.07.2024 Le 13 mars 2024, le Parlement européen a adopté à une large majorité une loi qui règlemente l’intelligence artificielle (IA). La professeure Sarah Dégallier Rochat nous révèle ce qu’elle en pense dans un entretien.

L’essentiel en bref

  • Depuis mars de cette année, le Parlement européen réglemente l'intelligence artificielle (IA).
  • La loi sur l'IA vise en premier lieu à réglementer les applications de cette technologie.
  • Selon la professeure Sarah Dégallier Rochat, cette réglementation entraîne des défis tant politiques qu'économiques - et a une influence sur la Suisse.

L’Union européenne a récemment adopté une loi sur l’IA. Peut-on règlementer l’IA?

Prof. Dr. Sarah Dégallier Rochat: Ce sont avant tout les géants du Web comme Google, Meta, Microsoft et OpenAI qui affirment qu’il n’est pas possible de règlementer l’IA, parce qu’il est économiquement avantageux pour eux de ne pas être régulé. Depuis une dizaine d’années, il existe une méfiance croissante vis-à-vis de ces entreprises, car elles deviennent toujours plus puissantes. On leur reproche notamment de manipuler le débat technologique à leur avantage. Il est donc important de remettre en question ce narratif de l’IA en tant que phénomène incontrôlable. Dans ce débat, on parle plutôt de ce que l’IA pourrait être à l’avenir plutôt que de ce qu’elle est aujourd’hui. L’IA n’est pas une formule magique, mais exige un grand travail de conception et donc de nombreuses décisions humaines. Les systèmes d’IA peuvent donc être conçus de façon à respecter au mieux les valeurs humaines (voir ENCADRÉ).

 

La loi sur l’IA vise plutôt à règlementer les applications de la technologie que la technologie en elle-même. Bien entendu, ces applications peuvent être règlementées: nous pouvons par exemple décider de ne pas autoriser de systèmes de surveillance avec reconnaissance faciale. Il ne s’agit pas d’une décision technique, mais d’une décision politique qui a bien plus à voir avec les valeurs humaines que nous voulons entretenir, qu’avec la technologie en tant que telle.

Qu’est-ce que l’IA et comment fonctionne-t-elle?

L’intelligence artificielle est définie dans la loi sur l’IA comme un système basé sur une machine et disposant d’une certaine autonomie qui, contrairement aux systèmes traditionnels pour lesquels les règles sont explicitement définies, apprend à partir d’exemples et les décompose en règles implicites. Nous, les humains, apprenons également à l’aide d’exemples. Nous sommes en mesure de reconnaitre une carotte, car nous en avons déjà vu beaucoup. Pour ce faire, nous faisons appel à des propriétés ou des caractéristiques toujours présentes. Si j’ai vu uniquement des carottes orange, je retiens la couleur «orange» comme caractéristique des carottes. Cela pourrait conduire à ce que je ne reconnaisse pas une carotte violette comme étant une carotte. Le travail de l’IA est très similaire. Il est donc important de disposer de données diverses et nombreuses pour que le système identifie les bonnes caractéristiques.

Les systèmes d’IA peuvent donc identifier des échantillons qui apparaissent dans les données, mais ne correspondent pas à la réalité. Cela peut générer des résultats inattendus. C’est cela qu’on dit lorsque l’on dit que l’IA est imprévisible. Comme les caractéristiques ne sont pas explicitement définies, on utilise le terme de «boite noire»: si le résultat d’une IA était qu’une carotte violette n’est pas une carotte, le système ne me dirait pas que cette décision a été prise en raison de l’absence de couleur orange. Lorsqu’un système RH décide qu’une personne ne convient pas à un poste, nous ne savons pas sur quelles caractéristiques est basée cette décision et si ces caractéristiques sont pertinentes. Il n’est donc pas possible de comprendre la décision. Le domaine de l’IA explicable a pour but de présenter clairement les caractéristiques.

Quand nous disons que les résultats de l’IA ne sont pas compréhensibles, cela ne signifie pas que nous ne comprenons pas comment fonctionne l’IA ou que nous ne pouvons pas contrôler les résultats. Les systèmes d’automatisation ont toujours fait des erreurs et il est du domaine du possible de contrôler les résultats avant qu’ils n’entrent en vigueur («sauvegarde»). Par exemple, les résultats de ChatGPT sont toujours contrôlés afin de s’assurer qu’ils ne contiennent pas de messages haineux. Il est également possible de modifier l’autonomie du système: pour un système d’IA qui définit la température d’une machine, un intervalle dans lequel le système peut agir de manière autonome peut être prédéfini. Lorsqu’une valeur est dépassée, une confirmation humaine est requise. C’est pourquoi un humain doit toujours définir ce qu’un système peut faire. Cela fait partie de la conceptualisation du système, qui est entièrement prévisible et régulable.

L’un des plus grands défis est le développement rapide de la technologie. Les règlementations doivent être suffisamment flexibles pour suivre cette dynamique, tout en offrant des lignes directrices et des mesures de protection claires. Est-ce réussi?

Prof. Dr. Sarah Dégallier Rochat: La règlementation de l’IA n’est pas plus difficile que la règlementation des applications médicales, dans lesquelles la technologie se développe également très rapidement. Le défi de la loi sur l’IA de l’Union européenne consistait plutôt à trouver un compromis entre les intérêts économiques, politiques et citoyens, en particulier parce qu’il n’y avait auparavant aucune règlementation et parce que l’IA est encore peu règlementée dans les autres régions du globe. Une règlementation signifie donc plus d’efforts et de couts pour les entreprises européennes et peut avoir des répercussions négatives sur leur compétitivité.

 

Les systèmes d’IA peuvent être utilisés dans des domaines dans lesquels une décision (erronée) du système pourrait avoir de lourdes conséquences sur la vie des personnes. Un bon exemple est le scandale aux Pays-Bas, où le gouvernement a utilisé un algorithme pour découvrir rapidement les fraudes aux allocations familiales. L’algorithme était discriminatoire, ce qui a conduit 600 parents à être considérés à tort comme des fraudeurs. Des dizaines de milliers d’euros d’allocations familiales ont été réclamés. Certaines des personnes concernées ont perdu leur travail et leur logement, des enfants ont même dû être relogés. Étant donné qu’il n’y avait pas de règlementation, il a fallu six ans pour que les reproches soient vérifiés. La loi de l’UE sur l’IA adopte une approche basée sur les risques: il s’agit de prendre des mesures pour réduire les risques d’une telle violation des droits humains. En Suisse, il est désormais possible d’exiger qu’une décision prise par une IA soit examinée par un humain, ce qui garantit également que la décision puisse être justifiée.

La loi de l’UE sur l’IA s’agit de prendre des mesures pour réduire les risques d’une telle violation des droits humains.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Responsable Transformation numérique commence par les personnes

«Approche basée sur les risques», cela semble assez technique. Qu’est-ce que cela signifie exactement?

Prof. Dr. Sarah Dégallier Rochat: Cette approche a pour but de réduire les risques. Les droits de l’homme servent de ligne directrice pour définir ces risques. C’est une chose courante en économie, c’est pourquoi l’expérience existante est grande. Les applications sont divisées en différentes catégories: plus le risque est élevé, plus la règlementation est stricte. Les applications sont interdites lorsque le risque est considéré comme inacceptable, par exemple avec le crédit social, un système d’évaluation qui convertit le comportement individuel et les interactions sociales en une évaluation numérique. En Chine, une évaluation faible peut entrainer une restriction des droits civiques, comme l’accès à l’éducation ou à la santé.

 

Une alternative serait une approche basée sur les droits de l’homme. Cela signifie que l’objectif n’est pas seulement de réduire les risques, mais aussi de promouvoir activement les droits de l’homme. Étant donné que la définition des droits de l’homme n’est pas claire, une telle approche serait cependant plus difficile à mettre en œuvre. Il faut toutefois tenir compte du fait que la loi sur l’IA est subordonnée à la Déclaration des droits de l’homme et qu’il est donc possible d’agir juridiquement contre les systèmes d’IA qui portent atteinte à ces mêmes droits.

En tant qu’utilisateur, je n’y comprends pas grand-chose…

Prof. Dr. Sarah Dégallier Rochat: Les personnes appartenant à une minorité peuvent être menacées par ces systèmes, car ceux-ci reflètent aussi bien les intérêts de la majorité que les préjugés de la société. C’est pourquoi la loi sur l’IA interdit les systèmes d’IA qui catégorisent les personnes selon la race, la religion ou l’orientation sexuelle. En outre, les développeurs et les exploitants de systèmes d’IA doivent réduire autant que possible le risque que ces systèmes prennent des décisions discriminatoires ou injustes. Les applications particulièrement exposées aux risques, comme les systèmes de reconnaissance des émotions, sont soumises à des exigences supplémentaires en matière de transparence.

 

Mais d’après plusieurs organisations de défense des droits de l’homme, les mesures de lutte contre les risques de discrimination par les systèmes d’IA et les mécanismes de surveillance et de contrôle sont insuffisants pour garantir la conformité aux règlementations. En outre, le projet de loi contient de nombreuses exceptions et failles permettant de continuer à utiliser des technologies invasives et de surveillance accrue. Par exemple, les contrôles sont moins stricts pour les systèmes d’IA développés ou utilisés exclusivement à des fins de sécurité nationale, et ce qu’il s’agisse d’une autorité ou d’une entreprise privée. Par ailleurs, la loi européenne sur l’IA permet d’utiliser des technologies telles que la justice prédictive, la reconnaissance faciale publique en direct et la catégorisation biométrique à l’encontre des migrants, des réfugiés et d’autres groupes marginalisés.

Le projet de loi contient de nombreuses exceptions et failles permettant de continuer à utiliser des technologies invasives et de surveillance accrue.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Responsable Transformation numérique commence par les personnes

Qu’en est-il des systèmes d’IA utilisés au quotidien comme les assistants vocaux ou les systèmes de recommandation?

Prof. Dr. Sarah Dégallier Rochat: Ces systèmes relèvent généralement de la catégorie des risques faibles ou modérés et sont donc soumis à des règles moins strictes. Ils doivent cependant remplir certaines exigences en matière de transparence, par exemple informer les utilisateurs lorsqu’ils interagissent avec un système d’IA. Dans le cas des systèmes d’IA à haut risque, les données et les algorithmes sous-jacents doivent en outre être publiés afin de permettre une vérification et une évaluation indépendantes. Ces mesures ont pour but d’éviter que les systèmes d’IA prennent des décisions inaperçues et incontrôlées qui concernent les personnes.

Actuellement, il est beaucoup question de ce que la loi prescrit. Existe-t-il aussi des mesures qui favorisent les innovations dans le domaine de l’IA?

Prof. Dr. Sarah Dégallier Rochat: La loi prévoit des «bacs à sable de l’IA», c’est-à-dire des environnements contrôlés dans lesquels des systèmes d’IA innovants peuvent être développés, testés et validés. Ces «bacs à sable» doivent permettre de tester et d’améliorer les systèmes d’IA en conditions réelles. De plus, la loi sur l’IA pourrait également favoriser l’innovation en créant des normes claires et une sécurité juridique.

Mais tout ceci concerne exclusivement l’UE. Pour la Suisse, les choses ne changent donc pas?

Prof. Dr. Sarah Dégallier Rochat: Le Conseil fédéral examinera d’ici à fin 2024 des approches possibles de règlementation de l’IA et prendra des mesures sur cette base. Bien que la Suisse ne soit pas membre de l’UE, la loi sur l’IA aura également des répercussions sur les entreprises suisses qui interagissent avec le marché européen. Les entreprises suisses qui souhaitent vendre ou proposer des services d’IA dans l’UE doivent s’assurer que leurs produits sont conformes aux nouvelles règlementations européennes. Cela signifie également que les entreprises suisses qui développent des applications risquées pour l’humain doivent respecter les normes de sécurité et de transparence.

 

L’association AlgorithmWatch CH a lancé un appel au Conseil fédéral, avec la demande urgente de mettre la protection contre la discrimination par des algorithmes au premier plan des règlementations imminentes de l’IA. Pour l’association, la loi de l’UE sur l’IA ne traite pas suffisamment de la discrimination et le projet de loi ne prévoit pas une protection suffisante pour les individus.

Bien que la Suisse ne soit pas membre de l’UE, la loi sur l’IA aura également des répercussions sur les entreprises suisses qui interagissent avec le marché européen.

Prof. Dr. Sarah Dégallier Rochat
Prof. Dr. Sarah Dégallier Rochat Responsable Transformation numérique commence par les personnes

En tant que BFH, nous ne sommes pas seulement des partenaires de savoir, mais aussi des lieux de formation. Qu’implique la loi sur l’IA pour le paysage suisse de la formation?

Prof. Dr. Sarah Dégallier Rochat: Le paysage suisse de la formation pourrait tirer profit des nouvelles règlementations, car la demande en personnel dans le domaine de l’IA et de la conformité augmentera. À l’avenir, il sera de plus en plus important de mettre en avant le facteur humain dans ces développements pour s’assurer que les diplômé‑e‑s disposent des connaissances nécessaires sur les aspects juridiques et éthiques de l’IA. Le fait que l’UE s’intéresse autant à ce sujet montre l’importance qu’il revêt. La recherche dans ce domaine est donc essentielle pour développer des solutions innovantes répondant aux nouvelles normes. Le domaine thématique de la transformation numérique centrée sur l’humain vise à promouvoir la recherche dans ce domaine et à transposer les résultats dans l’enseignement, mais aussi auprès du grand public et dans l’économie.

À propos de nous

La professeure Sarah Dégallier Rochat est responsable du domaine thématique stratégique Transformation numérique centrée sur l’humain à la BFH et chercheuse dans le domaine de l’interaction humain-machine au sein de l’Institute for Human Centered Engineering HuCE. Elle est titulaire d’un BSc et un MSc en mathématiques, ainsi que d’un PhD en robotique de l’EPFL. En 2019, elle a reçu le prix «Industry 4.0 Shapers». Elle entend promouvoir un développement des technologies numériques qui s’oriente sur les besoins humains et aspire à un avenir inclusif et juste.

En savoir plus