Intelligence artificielle : « être précurseur en matière de normalisation, compétitif au niveau international, mais aussi intransigeant sur notre modèle de valeurs »

J’ai participé ce lundi 2 novembre aux entretiens Jacques Cartier en visioconférence, crise sanitaire oblige, consacrés à la régulation de l’intelligence artificielle à l’invitation de Florian Martin Bariteau du centre de recherche en droit, technologie et société de l’Université d’Ottawa et de Mouna Mouncif-Moungache, du centre de recherches critiques sur le droit de l’Université de Saint-Etienne.

Un bel exemple de l’implication de la communauté académique sur ce sujet majeur pour la compétitivité, l’attractivité et la souveraineté technologique de l’Europe dans les années à venir.

Vous retrouverez ici les grandes lignes de mon intervention lors de ce séminaire organisé par les chercheurs français et canadiens.

Dans cette époque troublée, en crise, il est primordial de nous interroger sur ce que nous souhaitons collectivement pour notre avenir. L’intelligence artificielle fait partie des enjeux décisifs sur lesquels nous déterminerons et nous déterminons déjà ce que sera demain notre société.

En effet, vous l’avez rappelé, l’intelligence artificielle est une révolution technologique majeure.

L’intelligence artificielle facilite la prise de décision dans un contexte multiparamétrique en apportant une réponse personnalisée grâce à une analyse massive de données.Si cette innovation est rendue possible par la hausse exponentielle de nos capacités de calcul et de stockage, ce sont les mécanismes d’apprentissage automatique (machine learning) qui sont au cœur de cette révolution technologique. Là où les instructions étaient auparavant formalisées à l’avance et automatisées, la machine est désormais alimentée avec des exemples pour apprendre elle-même les opérations à effectuer. Le deep learning, l’une des branches de l’apprentissage automatique, est porteur de nombreuses promesses pour l’avenir.

Ainsi des applications majeures sont aujourd’hui modélisés grâce à l’intelligence artificielle : modèles de prévision, diagnostic médical, recommandation de recherche, voiture autonome. Elles font partie de notre quotidien mais aussi du quotidien de nos proches : pour aider nos ainés, et éduquer nos plus jeunes.

C’est pourquoi, il est vital de bâtir un modèle conforme à notre histoire et nos valeurs.

Afin de protéger notre modèle et ainsi préserver notre souveraineté, la France et l’Europe ont en matière d’intelligence artificielle une stratégie fondée sur le respect de valeurs communes.

Comme le rappelait au mois de février la présidente de la Commission européenne Ursula Von der Leyen : « Je tiens à ce que l’Europe numérique reflète le meilleur de notre continent : l’ouverture, l’équité, la démocratie et la confiance ». C’est également ce consensus autour d’une communauté de valeurs qui est au cœur de la déclaration franco-canadienne sur l’IA et de la mise en place de son groupe international d’étude.

Il nous faut aussi créer les conditions pour organiser le débat collectif sur les évolutions scientifiques afin de préserver la confiance du public dans les futures évolutions technologiques.

Les universitaires et les chercheurs sont là pour nous éclairer sur les choix déterminants à faire pour notre avenir. La communauté scientifique internationale doit nous accompagner afin de nous  donner les clefs pour faire les bons choix pour notre société.

Le partenariat entre le centre de recherche critique sur le droit de l’Université de Saint Etienne et l’Université d’Ottawa, en est aujourd’hui l’incarnation. Au politique ensuite de donner l’impulsion pour accompagner vos idées, répondre aux  points d’alerte et mettre en place des recommandations.

Vos débats, cet après-midi ont été fort riches sur ces deux points. Vos contributions sont essentielles. Pour ma part, permettez-moi en conclusion de cette journée d’entretiens de revenir sur deux points : la réglementation de l’IA et  les enjeux liés à cette technologie pour les décideurs.

Parlons tout d’abord de la réglementation de l’IA

Un certain nombre de règles s’appliquent déjà à l’intelligence artificielle.

Tout traitement de données personnelles est strictement encadré juridiquement. Il doit être licite, loyal et transparent. Par ailleurs, chaque individu a droit à ce que les décisions importantes à son sujet ne soient pas prises par un algorithme.

Néanmoins, force est de constater, comme l’a souligné la CNIL en 2017 [1], l’intelligence artificielle est porteuse d’enjeux dépassant largement le cadre juridique actuel :

  • La délégation croissante de tâche aux algorithmes.
  • La tendance à générer des biais qui peuvent conduire à renforcer certaines discriminations.
  • L’enfermement algorithmique nuirait au pluralisme et à la diversité culturelle, tant les classements et les filtrages réalisés par les algorithmes augmentent la propension des individus à ne lire que ce qu’ils connaissent déjà, les renforcent dans leurs convictions et les amènent à rejeter ce qu’ils ne connaissent pas.
  • La mauvaise qualité, quantité ou pertinence des données
  • Le non-respect du principe de minimisation du fait de la massification des données.

L’évolution la plus significative, vous l’avez rappelé dans vos échanges, a lieu au niveau international.

Un consensus international est en train d’émerger sur l’intelligence artificielle dite responsable.

L’objectif est que les avancées en matière d’intelligence artificielle aient lieu dans un cadre transparent et conforme aux valeurs des pays démocratiques et aux règles de l’État de droit.

C’est dans ce cadre qu’a été formalisé le Partenariat mondial pour l’IA lancé en juin dernier par la France et 14 autres États. Un consensus se dessine autour de quelques principes clefs comme la redevabilité des algorithmes, c’est-à-dire la possibilité d’auditer les IA pour comprendre comment elles fonctionnent et ainsi détecter les risques d’erreurs et de biais.

Il s’agit aussi pour la France et l’Union européenne d’élaborer un modèle de référence sur la gouvernance de l’IA.

Cela passe d’une part par l’élaboration de nouveaux principes de référence comme la loyauté et la vigilance mais aussi la mise en place d’un comité éthique indépendant ou d’une agence européenne pour mieux articuler les enjeux de court et de long terme en éclairant les choix des acteurs privés et publics face aux récents développements algorithmiques.

La mise en place d’un tel cadre de référence est la première étape pour recouvrer en France et en Europe une souveraineté dans le secteur très compétitif qu’est aujourd’hui l’intelligence artificielle.

Et c’est bien sur cette question-là que nous sommes interrogés en tant que décideurs

En effet, nous accusons un sérieux retard sur l’intelligence artificielle alors qu’elle doit permettre à l’Europe et la France de dépasser le statut d’économie de rattrapage en matière technologique et de restaurer leur souveraineté numérique.

On le sait la position ultra-dominante des GAFAM leur permet de collecter des volumes considérables de données, d’investir et de recruter très largement dans le champ dans l’IA. Même si l’émergence de jeunes pousses invite à nuancer ce constat, elle est insuffisante pour inverser la tendance et injecter davantage de concurrence sur ce marché qui est aujourd’hui largement dominé par de grands acteurs  privés étrangers.

De nombreux états ont réalisé des investissements d’ampleur dans l’intelligence artificielle pour renforcer leur attractivité et leur compétitivité. C’est le cas du Canada qui se positionne comme chef de file au niveau mondial grâce à l’existence de centres de recherche et de formation d’excellence. C’est également le cas des États-Unis et de la Chine qui soutiennent massivement l’innovation de rupture.

SI l’Europe accuse un retard considérable sur l’industrialisation de l’intelligence artificielle, elle n’a pas pour autant perdue la bataille pour la localisation de la valeur car elle dispose d’atouts indéniables : une élite académique de premier plan, des ingénieurs hautement qualifiés et un savoir-faire industriel considérable. A nous de tirer parti de ces avantages !

Le rapport Villani formule en ce sens plusieurs recommandations [2] :

  • Il préconise de définir au niveau national quatre secteurs prioritaires pour réaliser des investissements sur l’IA à savoir la mobilité, l’écologie, la défense et la santé.
  • Il encourage la création d’un écosystème européen de données mutualisées.
  •  Il invite à donner davantage de moyens à la recherche et à renforcer l’attractivité.

C’est seulement si la France réalise ces investissements qu’elle pourra ambitionner sur les technologies de rupture de recouvrir une souveraineté. Mais elle doit pour cela aussi anticiper les risques qu’une plus large diffusion de l’intelligence artificielle ferait courir au public.

  • D’une part, en matière d’emploi et de formation :

Les impacts de l’intelligence artificielle sur la création et la destruction d’emploi peuvent être importants. Par exemple, le Brookfield Institute a estimé en 2017 que le potentiel d’automatisation des emplois variait de 30% dans le secteur éducatif à 70% dans l’hébergement et la restauration au Canada.

Si ces constats méritent d’être en partie nuancés, notamment parce que le numérique participe aussi à la création d’emplois très qualifiés, il n’en reste pas moins que son impact sur l’emploi et l’offre de formation doivent être soigneusement évalués et anticipés.

  •  D’autre part en matière d’environnementale :

Vu les récentes évaluations sur le coût environnemental des technologies, il s’agit aujourd’hui plus que jamais de décarboner les chaînes de valeur en privilégiant des modèles compatibles avec les objectifs de développement durable et utiliser des applicatifs écoresponsables. L’intelligence artificielle doit poursuivre ces objectifs en soutien au pacte vert européen.

Ce n’est qu’à ces conditions que nous assurerons la soutenabilité de l’intelligence artificielle, qui doit permettre à la France et à l’Europe d’être précurseur en matière de réglementation, compétitif et attractif au niveau international, mais aussi intransigeant sur notre modèle de valeurs.


[1] Les enjeux éthiques des algorithmes et de l’intelligence artificielle CNIL (2017) :

https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de

📌 Les entretiens Jacques Cartier