đŸ€– Un encadrement pour la robotique et l’intelligence artificielle

Le dĂ©veloppement fulgurant de la robotique et de l’intelligence artificielle (IA) questionne sur son encadrement technique, juridique, voire Ă©thique. Porteur...

Dans cet article

Le dĂ©veloppement fulgurant de la robotique et de l’intelligence artificielle (IA) questionne sur son encadrement technique, juridique, voire Ă©thique. Porteur de nouvelles opportunitĂ©s, de nouvelles ambitions, ces technologies sont Ă©galement sources de nouveaux dĂ©fis et risques dans tous les secteurs et domaines d’activitĂ©.

 

đŸ‘·Â La robotique, l’intelligence artificielle et la sĂ©curitĂ© au travail

 

Les rĂ©flexions et dĂ©bats sur l’enjeu de la robotique et Ă  l’IA n’ont pas manquĂ© dans le domaine de la santĂ© et de la sĂ©curitĂ© au travail (SST). En effet, l’automatisation des tĂąches cognitives et celle des tĂąches physiques qu’impliquent ces nouvelles technologies modifieront nĂ©cessairement le lieu et les conditions de travail.

Si plusieurs travaux, Ă©tudes et rapports portent sur le sujet, le constat communĂ©ment partagé porte sur le besoin d’un cadre assurant aux utilisateurs :

  • Une confidentialitĂ© de leurs donnĂ©es,
  • L’équitĂ©,
  • La responsabilitĂ©,
  • La transparence.

Pour l’heure, les enjeux de SST liĂ©s Ă  la robotique et Ă  l’IA seraient couverts par 02 directives europĂ©ennes :

📕 Vers une rĂšglementation europĂ©enne spĂ©cifique Ă  l’IA

 

Les enjeux stratĂ©giques de la robotique et de l’IA ont conduit la Commission europĂ©enne Ă  proposer une rĂšglementation spĂ©cifique Ă  l’IA, en avril 2021. Il s’agirait de structurer cette filiĂšre Ă  travers Ă  un double objectif :

  • Garantir aux utilisateurs et citoyens de l’Union europĂ©enne un niveau Ă©levĂ© de protection en matiĂšre de santĂ©, de sĂ©curitĂ© et de droits fondamentaux,
  • Assurer la libre circulation des biens et services fondĂ©es sur l’IA grĂące Ă  un cadre juridique stable.

Quelles sont les apports majeurs de ce projet de rÚglement ?

Souple dans ses dispositions, le projet de rùglement distingue 3 types d’IA :

  • Celles qui sont purement et simplement interdites,
  • Celles qui prĂ©sentent un haut risquepour la santĂ©, la sĂ©curitĂ© et les droits fondamentaux : au cƓur du projet de rĂšglement, les rĂšgles de mise sur le marchĂ© de ces IA sont particuliĂšrement exigeantes en termes de recueil d’informations et de gestion des risques. La dĂ©finition de ces IA Ă©tant assez flexible, le fournisseur de systĂšme d’IA aura Ă  dĂ©terminer, sur le fondement de diffĂ©rentes rĂšglementations sectorielles, si son systĂšme prĂ©sente un haut risque ou pas.
  • Celles qui sont considĂ©rĂ©es comme ne prĂ©sentant pas ou peu de risques.

Des procĂ©dures d’évaluation de conformitĂ© sont prĂ©vues pour chaque type de systĂšme d’IA. Prenant la forme soit d’une auto-certification par le fournisseur, soit d’une certification de conformitĂ© par un tiers, les Ă©valuations de conformitĂ© pour les IA Ă  haut risque devront se faire tout les 5ans, et Ă  chaque modification substantielle du systĂšme. Pour les autres systĂšmes d’IA, la vĂ©rification de conformitĂ© devrait se faire grĂące Ă  un « Code de conduite » dĂ©fini par le projet de rĂšglement, lequel Code pourrait vraisemblablement tendre vers l’élaboration d’un programme de certification volontaire. En cas de non-conformitĂ©, les sanctions pourraient aller d’une amende de 10M€ ou 2% du CA mondial de l’entreprise jusqu’à 30M€ ou 6% du CA mondial de l’entreprise.

En termes d’éthique, le projet de rĂšglement entend interdire certaines pratiques en matiĂšre d’IA. Preuve de la souplesse dont fait montre le texte : parmi ces pratiques interdites, il y en a une qui serait interdite aux pouvoirs publics mais autorisĂ©e pour les entreprises privĂ©es : il s’agit de la mise en service ou l’utilisation de systĂšmes d’IA destinĂ©s Ă  Ă©valuer ou Ă  Ă©tablir un classement de la fiabilitĂ© de personnes physiques. En parallĂšle, certaines pratiques, en principe interdites, pourraient faire l’objet d’autorisation sous certaines conditions.

Quoi qu’il en soit, des obligations sont mises Ă  la charge de l’ensemble des acteurs : allant des utilisateurs d’IA aux Etats membres et les autoritĂ©s de surveillance du marchĂ©, en passant par les fabricants, les fournisseurs, distributeurs et importateurs de systĂšmes d’IA.

Afin d’assurer l’efficience du texte, il est crĂ©Ă© un « ComitĂ© europĂ©en de l‘intelligence artificielle », lequel assurera les fonctions d’accompagnement, de support et de conseil aussi bien auprĂšs des autoritĂ©s de contrĂŽle qu’auprĂšs des Etats membres.

Se faisant pragmatique, le projet de rĂšglement comporte des dispositions qui devraient permettre Ă  la Commission europĂ©enne d’adapter certains articles pour en assurer leur efficacitĂ©.

 

✅ La robotique et l’intelligence artificielle au service de la normalisation

 

Dans ce contexte oĂč l’automatisation des tĂąches prend de plus en plus d’ampleur, le recours Ă  l’IA fait dĂ©sormais partie des projets de transformation numĂ©rique de l’Agence française de normalisation – AFNOR.

Le projet MARSS, pour « Machine Applicable Readable Standard et Standardisation », aurait pour finalité de rendre le contenu des normes (telles que l’ISO 9001 sur la qualitĂ©) plus facilement exploitable. Cela se traduirait par l’intĂ©gration automatisĂ©e des normes dans la base numĂ©rique des utilisateurs grĂące Ă  une complĂšte dĂ©matĂ©rialisation de ces normes et sans qu’il n’y plus besoin de l’intervention d’un ĂȘtre humain.

Pour l’heure, les normes en question sont accessibles : soit en version papier, soit en version PDF. Elles requiĂšrent donc le recours Ă  un ĂȘtre humain pour leur traitement et leur intĂ©gration dans le process des utilisateurs.

En tout cas, le projet devrait ĂȘtre exploitable d’ici 2030.

 

Sources :

Eurogip, Intelligence artificielle : décrypter le projet de rÚglement européen
OSHA, La robotique de pointe et l’intelligence artificielle pour l’automatisation des tĂąches au travail: situation actuelles et considĂ©rations pour la SST
AFNOR, Demain, les normes seront lues par les machines

 

Arinasy AndrĂ©as RAKOTOLAHY – Juriste HSE