Régulation de l’IA : la commission européenne planche sur un nouveau standard

IA et régulation : la commission européenne planche sur un nouveau standard

IA et régulation : la commission européenne planche sur un nouveau standard

Après le RGPD, la commission européenne s’attèle désormais à mieux encadrer l’Intelligence artificielle. Source d’innovation et d’amélioration des conditions de vie (santé, agriculture, maintenance prédictive, sécurité etc…), le recours à l’intelligence artificielle s’accompagne d’un certain nombre de risques potentiels « tels que l’opacité de la prise de décision, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » souligne la Commission dans son livre blanc. C’est pourquoi l’UE réfléchit à une législation afin d’éviter toute dérive et promouvoir une utilisation éthique de l’intelligence artificielle. Dans un premier temps, la commission des affaires juridiques du Parlement européen a adopté 3 rapports sur les propositions avancées dans ce même livre blanc.

L’IA ne fera pas sa loi… En tout cas pas en Europe. Depuis plusieurs années, la commission européenne multiplie les législations pour devenir le régulateur mondial de l’économie fondée sur les données et dans ses applications. Après avoir transposé en droit national, le règlement sur la protection des données personnelles en 2018, elle planche désormais sur un cadre éthique et responsable de l’intelligence artificielle. Partie intégrante de sa stratégie pour une économie numérique et résiliente, l’Europe veut ainsi s’imposer comme le régulateur mondial de cette « révolution industrielle ». Les trois rapports adoptés par les députés européen sont dédiés à l’encadrement de l’IA.

 

La propriété intellectuelle

Porté par le député français Stéphane Séjourné du groupe Renew Europe, le premier rapport demande une étude d’impact sur la propriété intellectuelle, indispensable pour protéger les développeurs et ainsi imposer le leadership mondial de l’UE en matière d’IA sur la scène internationale. Par ailleurs, ce même rapport estime que l’intelligence artificielle ne doit pas être dotée d’une personnalité juridique et donc de n’être en aucun cas titulaire de droits et de devoirs. L’IA ne pourra donc jamais être considérée comme un « inventeur », ce titre devant être exclusivement réservé à un humain. Ce dernier point avait été débattu puis rejeté par l’office européen des brevets qui avait été amené en janvier 2020 à trancher sur une demande dans laquelle une intelligence artificielle était désignée comme un « inventeur ».

 

Une IA éthique

Le député espagnol Iban García del Blanco, rattaché au Groupe de l’Alliance Progressiste des Socialistes et Démocrates, invite la Commission européenne à présenter un nouveau cadre juridique pour les principes éthiques à utiliser lors du développement, du déploiement et de l’utilisation de l’IA, de la robotique et des technologies connexes dans l’UE, y compris les logiciels, les algorithmes et les données.

Les députés ont adopté des propositions sur plusieurs principes directeurs qui doivent être pris en compte par les futures lois, notamment une IA centrée sur l’humain, faite et contrôlée par l’homme, la sécurité, la transparence et la responsabilité, les garanties contre les préjugés et la discrimination, le droit à la réparation, la responsabilité sociale et environnementale et le respect des droits fondamentaux.

 

La responsabilité civile de l’IA

Selon le député allemand Axel Voss du parti populaire européen, à l’origine de ce troisième rapport, il est important que les systèmes autonomes considérés à haut risque, aient une responsabilité stricte. Ce qui encouragerait l’innovation en offrant aux entreprises une sécurité juridique, et renforcerait la protection des citoyens et leur confiance dans les technologies de l’IA en dissuadant les activités à risque.

Dans son livre blanc, la commission européenne considère une IA à haut risque dès qu’elle « remplit cumulativement les deux critères suivants : (…) l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir. (…) et l’application d’IA dans le secteur en question est, de surcroît, utilisée de façon telle que des risques importants sont susceptibles d’apparaître. » (…)

(…) « Par exemple, si les soins de santé peuvent, d’une manière générale, faire partie des secteurs concernés, une défaillance du système de planification des rendez-vous dans un hôpital ne présentera normalement pas de risques tels qu’ils justifient une intervention législative. L’appréciation du niveau de risque d’une utilisation donnée pourrait reposer sur ses conséquences pour les parties concernées. (…) Les utilisations d’applications d’IA qui produisent des effets juridiques sur les droits d’une personne physique ou d’une entreprise, ou l’affectent de manière significative de façon similaire qui occasionnent un risque de blessure, de décès ou de dommage matériel ou immatériel important dont les effets ne peuvent être évités par les personnes physiques ou morales. »

Par ailleurs, le député allemand estime que le futur texte devra définir « les opérateurs des systèmes d’IA », c’est à dire l’ensemble des acteurs qui sont impliqués dans le cycle de vie d’un système d’IA, comme les responsables en cas de dommage. On peut évoquer ici l’exemple des biais algorithmiques qui peuvent créer des discriminations fondées sur le genre et donc pourraient entrainer des traitements non souhaitables et non souhaités. Leur responsabilité portera sur la protection de la vie, de la santé, de l’intégrité physique, des biens ainsi que sur des dommages immatériels importants s’ils entraînent « une perte économique substantielle vérifiable ».

La Commission devrait présenter une proposition législative en la matière au début de l’année 2021.

 

Dominique Cozzi, journaliste consultante

En réagissant à cet article, vous nous permettez d'affiner les contenus que nous publions ici !

  • Sucks (2)
  • Awesome (0)
  • Interesting (0)
  • Useful (0)
  • Boring (0)

Si cet article vous a plu, n’hésitez pas à le partager via