Le besoin impérieux de réguler l’intelligence artificielle

L’intelligence artificielle, de plus en plus présente dans nos vies, est un facteur de progrès. Mais cette technologie est aussi source de dangers. Sam Altman, le PDG d’OpenAI, qui a créé ChatGPT, voit dans l’intelligence artificielle (IA) une menace semblable à celle « des pandémies et de la guerre nucléaire ». Les risques associés à l’IA sont les principales raisons qui motivent l’évolution vers une régulation.

Au cours de ces vingt dernières années, l’intelligence artificielle (IA) est passée d’un domaine technique quasiment réservé à une communauté de spécialistes à un sujet largement populaire, faisant la une des médias et mettant chaque jour en lumière de nouvelles fonctions et applications informatiques.

Le potentiel et l’efficacité des techniques de l’intelligence artificielle étant devenus très visibles, cette dernière attire d’importants investissements privés et de nombreux projets de recherche et développement.

Il existe de nombreuses controverses sur la définition de l’IA en tant que science ou technologie. Pour Maître Gérard Haas et Maître Stéphane Astier, « définir l’intelligence artificielle relève du défi ». De même, dans un article intitulé « Le défi d’une IA inclusive et responsable », Marie-Pierre Blin-Franchomme et Gérard Jazotttes, enseignants à l’Université Toulouse – Capitole, écrivent : « Pour pouvoir réguler l’IA afin de répondre aux risques qui lui sont liés, il paraît nécessaire de définir ce que recouvre l’IA. Or, l’expression intelligence artificielle est à l’origine d’un malentendu, parce qu’elle n’est que la reprise en français, et non la traduction, de l’expression anglo-saxonne d’ « artificial intelligence », alors que le mot intelligence a un sens différent dans chacune des deux langues. Au-delà de ce malentendu, il convient de pouvoir délimiter quelles sont les activités relevant de l’IA afin de pouvoir les réguler si nécessaire ».

Dans la présente étude, nous proposons de retenir la définition de Yann Le Cun, titulaire de la Chaire Informatique et sciences numériques au Collège de France en 2015-2016 et celle du Parlement européen. Pour Yann Le Cun, l’intelligence artificielle constitue « un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux“. De son côté, le Parlement européen identifie l’intelligence artificielle comme tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

Nous découvrons des applications réussies de techniques d’intelligence artificielle dans presque tous les domaines de l’industrie et des services : médecine et santé, transports (exemple des véhicules autonomes), fabrication et logistique, agriculture, commerce, finance, etc. L’IA accompagne désormais la vie quotidienne de milliards de personnes au travail, dans la voiture, à la maison, à la banque, à l’hôpital, … L’IA offre des opportunités mais elle s’accompagne aussi de risques à l’origine de craintes qu’il faut prendre en compte. Une régulation est inévitable.

Les enjeux de l’intelligence artificielle

Les exemples sont nombreux pour illustrer l’invasion de l’intelligence artificielle dans nos vies.

Concernant les particuliers, l’IA s’invite : 1) dans la domotique avec la maison intelligente (« smart home ») ; 2) dans la sphère de la santé avec le robot médical et d’assistance aux personnes malades, âgées ou handicapées ; 3) dans le domaine de la justice avec l’application juristech (« legaltech » en anglais) qui offre une accessibilité renforcée et simplifiée au droit aussi bien pour les professionnels du droit que pour les entreprises et particuliers (aide à la création d’entreprise en ligne, génération de modèles d’actes juridiques, mise en relation avec des professionnels du droit, assistance et règlements de litiges en ligne) ; 4) dans le secteur des transports avec la voiture robot ou la voiture autonome. Le Directeur général d’Apple, conçoit la voiture-robot comme « la mère de tous les projets de l’intelligence artificielle ».

S’agissant des entreprises, d’après Laurent Charlin, professeur associé à HEC Montréal, l’IA « constitue une mine d’or » pour les entreprises. Elle est, pour ces dernières, un levier de croissance. 

Enfin, dans le secteur bancaire et financier, l’IA entraîne des changements majeurs dans la banque de détail, notamment en ce qui concerne l’amélioration de la relation client, et dans la banque d’investissement. Par ailleurs, en automatisant certains processus, l’IA « pourrait améliorer la performance de la gestion des risques et de la conformité » (Olivier Fliche et Su Yang, rapport de l’Autorité de contrôle prudentiel et de résolution (ACPR) de décembre 2018 intitulé « Intelligence artificielle : enjeux pour le secteur financier »).

Au-delà des avantages que peut présenter l’IA, sa croissance rapide soulève des interrogations. Dans un article intitulé « La vie au temps des IA, entre servitude volontaire et main invisible numérique », Boris Barraud, enseignant-chercheur à la chaire IA, Responsable Université d’Artois, écrit : L’intelligence artificielle, de plus en plus omniprésente dans nos vies, est un grand facteur de progrès. Elle est aussi source de dangers ».

Les raisons pour lesquelles la régulation de l’IA est une nécessité impérieuse

Les risques associés à l’IA : violation de la vie privée, effacement de l’humanité, destruction d’emplois, augmentation des cyberattaques, algorithmes biaisés, armes automatisées, problèmes d’éthique … sont les principales raisons qui motivent l’évolution vers une régulation.

  • Violation de la vie privée

Les systèmes d’IA reposant sur l’exploitation d’un grand nombre de données dont la plupart sont personnelles, qu’en est-il de la confidentialité, du piratage, du vol, de la manipulation malveillante, …de ces données ? La sécurité des données doit être garantie. Les clients doivent être informés de la façon dont les données sont consultées et des raisons pour lesquelles elles le sont. Les données personnelles sont une question de souveraineté. Comme le souligne Pierre Bellanger, fondateur et président de Skyrock, « les données personnelles sont une extension de la personne et doivent donc être sous sa maitrise ». Même si l’IA a envahi de nombreux domaines, son développement est loin d’être achevé. Plusieurs questions demeurent en suspens concernant le développement de l’IA, dont celle relative à la protection de la vie privée.

  • Effacement de l’humanité

Dans son ouvrage intitulé « La guerre de l’information – Les Etats à la conquête de nos esprits », David Colon, professeur à Sciences Po, explique que « la troisième guerre mondiale est la guerre de l’information ». Il déclare « qu’à l’ère de l’intelligence artificielle et de la guerre cognitive, les médias sociaux sont le théâtre d’une « guerre du net » sans merci, sans fin, dont nos esprits sont l’enjeu ». Pour Elon Musk également, c’est « la course à l’IA » qui a le plus de chance de déclencher une troisième guerre mondiale ». En mars 2023, Elon Musk ainsi qu’une centaine d’experts ont signé une pétition pour demander un moratoire sur les IA. « Afin de prévenir des risques majeurs pour l’humanité », ils réclament une pause dans les recherches jusqu’à la mise en place de systèmes de sécurité. De son côté, le chercheur australien Hugo de Garis, avertit sur l’inévitabilité d’une guerre majeure avant la fin du 21ème siècle. Il pense que l’IA pourrait éliminer la race humaine.

  • Destruction d’emploi

L’IA va modifier la majorité des métiers en automatisant un grand nombre de tâches. Le conflit historique entre le progrès technologique et la préservation de l’emploi remonte à la première révolution industrielle. En 1930, John Maynard Keynes déclarait : « Nous sommes atteints d’une nouvelle maladie dont certains lecteurs n’ont peut-être pas encore entendu le nom, mais dont ils entendront beaucoup parler dans les années à venir, à savoir le chômage technologique“. Les auteurs d’un rapport publié le 26 mars 2023 par Goldman Sachs révèlent qu’aux Etats-Unis et en Europe, un quart des tâches actuelles effectuées par l’humain pourraient être remplacées par l’IA. Certains métiers sont plus exposés que d’autres. Les professions administratives et juridiques seraient les plus touchées. En revanche, les métiers plus physiques comme ceux du bâtiment et de la maintenance seront moins affectés.

  • Accroissement des cyberattaques

Les cybercriminels utilisent de plus en plus l’IA à des fins de malveillance. Dans le cadre d’un sommet sur la cybersécurité qui s’est tenu en octobre 2017, trois experts, Kevin Coleman, Elham Tabassi et Tim Bandos ont présenté trois manières dont l’IA et l’apprentissage automatique pouvaient être exploités par les pirates informatiques : l’empoisonnement des données, la technique des réseaux antagonistes génératifs et la manipulation des robots.

  • Algorithmes biaisés

L’IA et l’apprentissage machine (« machine learning ») offrent certes des opportunités mais aujourd’hui ces technologies sont gangrénées par des biais qui trouvent leur source dans les données. « Les données utilisées pour entraîner les algorithmes peuvent en effet être biaisées ou inexactes et entraîner des décisions injustes ou inéquitables » souligne Maître Alain Bensoussan. D’aucuns parlent de « discrimination technologique ». La norme ISO/CI TR 24027 définit le biais comme une « différence systématique dans le traitement de certains objets, personnes ou groupes par rapport à d’autres » ; le traitement s’entendant de « tout type d’action, y compris la perception, l’observation, la représentation, la prédiction ou la décision ». Ces biais sont lourds de conséquences comme le démontre Olivier Penel, « Head of Global Advisory » chez SAS. Il écrit : « Les biais – conscients ou inconscients – peuvent influencer la qualité des résultats produits par les algorithmes, mais également amplifier les discriminations sociales et économiques inhérentes à nos sociétés ».

  • Quelle éthique pour l’IA ?

Eu égard aux algorithmes biaisés et aux discriminations que l’IA peut engendrer, aux enjeux de sécurité, à la protection des données, etc., l’adoption de cette technologie pose des questions d’ordre éthique. Dans son ouvrage « Sortez vos données du frigo », Mick Lévy, Directeur de l’Innovation Business chez Business & Decision, intitule le chapitre 10 « Data + IA = éthique : équation impossible ? ». Il énonce : « Des innovations émergent tous les ans, mais rarement une nouvelle technologie n’aura entraîné autant de débats sur les questions éthiques que l’IA. Les récents scandales planétaires tels que celui de la surveillance globale de la NSA, ou l’influence de Facebook et Cambridge Analytica sur des élections à fort enjeu, alimentent les peurs et montrent les limites d’usages non encadrés. Démocratie, éducation, justice, santé, non-discrimination, libertés individuelles, sont autant de sujets qui pourraient être menacés par un déploiement non maitrisé de l’IA ».

Etat des lieux de l’encadrement et de la régulation de l’IA

  • Adoption de textes non contraignants par l’OCDE et l’UNESCO

Adoptés en mai 2019, les Principes sur l’IA de l’OCDE « incitent à une utilisation de l’IA qui soit innovante et digne de confiance et qui respecte les droits de l’homme et les valeurs démocratiquesCette première norme intergouvernementale sur l’IA est reconnue mondialement comme une référence et un exemple de bonne gouvernance des technologies émergentes ». En juillet 2021, 38 membres de l’OCDE et 8 non-membres, soit 46 gouvernements ont adhéré à ces principes.

En novembre 2021, le premier standard mondial de l’UNESCO sur l’éthique de l’IA – la « Recommandation sur l’éthique de l’intelligence artificielle » – a été adopté par l’ensemble de ses 193 Etats membres. « La protection des droits humains et de la dignité est la pierre angulaire de la Recommandation, basée sur la consolidation de principes fondamentaux tels que la transparence et l’équité, sans jamais perdre de vue l’importance de la responsabilité humaine dans le contrôle des systèmes d’intelligence artificielle ».

  • L’Artificial Intelligence Act (AI Act)

L’Union européenne voulant devenir pionnière dans « un domaine qui fascine autant qu’il inquiète », celle-ci a pris les devants sur les USA ou la Chine, pour règlementer l’IA. Ainsi, le 14 juin 2023, le Parlement européen a largement approuvé le projet de réglementation sur l’intelligence artificielle ou Artificial Intelligence Act (AI Act). Ce dernier devrait entrer en vigueur d’ici 2025. L’IA Act vise à créer un cadre général pour « promouvoir l’innovation tout en garantissant la sécurité et les droits des utilisateurs ».

Le cadre réglementaire proposé par la Commission européenne propose une pyramide de quatre niveaux de risques en matière d’IA : 1) le risque inacceptable qui est interdit conformément aux dispositions de l’article 5 du règlement ; 2) le risque élevé qui est soumis à un régime de régulation précis (articles 6 à 51) ; 3) Le risque limité qui est guidé par un principe de transparence (article 52) ; 4) Le risque minimal ou nul qui n’est pas régulé par le règlement.

En résumé, face à une accélération du développement de l’IA, nous observons un fort consensus en faveur d’une nécessaire régulation de cette technologie qui a conduit les autorités européennes à légiférer. Cela étant, selon Yann Truong, professeur de management numérique à l’Ecole supérieure des sciences commerciales d’Angers (ESSCA), « le seul niveau réglementaire ne suffit pas ». D’après cet expert dans la mise en œuvre de systèmes d’intelligence artificielle dans les organisations, « la réponse peut aussi être technologique, par exemple en concevant des solutions où les IA sont clairement identifiables ». Enfin, pour Salima Benhamou, économiste à France Stratégie, « il faut un cadre de régulation mondial ». Elle préconise « au niveau supranational un cadre de régulation éthique pour le déploiement de l’IA et pour qu’elle réponde aussi aux besoins réels de nos sociétés ».

Laisser un commentaire