Pages

vendredi 12 janvier 2024

Peut-on encore contrôler l'Intelligence Artificielle ?

 par Claude Salzman.

L’IA suscite de grands espoirs et notamment l’IA Générative. On n’avait jamais vu avant dans le domaine de l’informatique un enthousiasme aussi important que lors du lancement de ChatGPT. En seulement deux mois 100 millions d’utilisateurs se sont connectés au système. Mais ils suscitent aussi de nombreuses craintes. Arrivera-t’on a réellement les maitriser ? Que se passera-t-il s’ils échappent à notre contrôle ? L’homme va-t-il devenir l’esclave de ces systèmes à base d'IA ?

En mars 2023, soit 4 mois après le lancement de ChatGPT, une pétition a été lancé par une association américaine, « Futur of Life Institute », demandant que soit mis en place un moratoire de six mois sur la recherche en Intelligence Artificielle Générative (voir https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/ ). Elle évoque « un risque majeur pour l’humanité » et dénonce : « une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs ne peuvent comprendre, prédire ou contrôler de manière fiable ». Sur la base de cette affirmation ils demandent que : « tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissante que GPT-4 »

Cette attitude est due à un débat qui agite la Silicon Valley depuis quelques années sur les risques de catastrophe planétaire dues à l’Intelligence Artificielle et particulièrement l’IA Générative. Il oppose deux clans : les optimistes et les pessimistes. Les premiers sont les enthousiastes qui ont une grande confiance dans la technologie. Ils s’identifient comme les « Effective Acceleration » ou en californien les « e/acc ». Les seconds sont les catastrophistes appelés les « AI Doomers ». Ils craignent que bientôt une superintelligence va apparaitre et se retourner contre l’humanité : chômage massif puis sa mise en esclavage et enfin son élimination car elle serait devenue inutile. Ils sont influencés par deux livres :

-        En 2000, Bill Joy co-fondateur de Sun Microsystems a écrit un livre étrange : « Pourquoi l'avenir n'a pas besoin de nous ». Il explique dans cet ouvrage que rapidement on va assister à l’arrivée des robots superintelligents qui constituent un danger pour la survie de l’humanité. C’était il y a 24 ans !

-        Plus récemment, en 2014, Nick Bostrom, a publié "Superintelligence, chemins, dangers, stratégies". C’est un des penseurs clés du transhumanisme. Il affirme que les superintelligences artificielles constituent un risque existentiel pour l’humanité car elles seraient incontrôlables. Pire : elles agiraient de manière anticipée de façon a empêcher toute tentative de les contrôler. On se croirait dans le film de Stanley Kubrick « 2001 Odyssée de l’espace » ou l’ordinateur de bord HAL ([1]) veut tuer l’équipage du vaisseau spatial pour se sauver.

Pour en savoir plus sur ces légendes il existe une curieuse page de Wikipédia sur les « Risques de catastrophe planétaire lié à l’intelligence artificielle » : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale#:~:text=Les%20syst%C3%A8mes%20avanc%C3%A9s%20d'IA,elle%2Dm%C3%AAme%20si%20mal%20align%C3%A9e.

On est loin des trois lois de la robotique d’Isaac Asimov dans "Cycle de Fondation" (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique) et notamment la première loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ». Chez Nick Bostrom c’est exactement l’inverse : le robot ne peut que nuire à l’homme et chercher sa perte. 

C’est le Kraken. C’est le mot à la mode du côté de San Francisco. C’est un animal mythique issue du fond culturel norvégien. C’est une sorte de calamar géant sortant des grands fonds marin pour détruire les bateaux et tuer tous les marins (voir les dessins du Kraken dans les slides ci-dessous).

Rassurons nous il n’y a pas de Kraken et le moratoire demandé par le « Futur of Life Institute » n’a pas été mis en place. Par contre on a assisté entre le mois de mai et novembre 2023 à une multiplication des initiatives des Etats et des organisations internationales dans ce domaine. Chacun a proposé un ou plusieurs moyens de réguler les développements de l’Intelligence Artificielle. Tout le monde s’y est mis : l’Union Européenne, les gouvernements américains et anglais, le G7, l’ONU, … Cela va de l’interdiction de certaines applications comme la reconnaissance faciale à la nomination d’un GIEC pour l’Intelligence Artificielle analogue à celle sur le climat.

Tous conviennent qu’il est nécessaire de contrôler ce « monstre » Mais comment s’y prendre ? Deux approches s’affrontent : l’européenne et l’américaine.

-        L’UE mise sur une réglementation détaillée et assez rigoureuse qui est en discussion depuis plus de quatre ans : l’AI Act. Ce texte n’est pas sans rappeler le RGPD. C’est un ensemble de règles strictes concernant la conception, les tests et l’exploitation des systèmes d’information à base d’Intelligence Artificielle. En fait c’est une transposition de la procédure de mise sur le marché des médicaments.

-        Aux USA comme au G7 on parie sur l’autorégulation ainsi que sur la responsabilisation des entreprises du secteur et des administrations concernées. C’est, par exemple, le dispositif mis en place dès novembre 2022 par la Maison Blanche qu'elle cherche à mettre en place dans les administrations fédérales (https://www.whitehouse.gov/ostp/ai-bill-of-rights/safe-and-effective-systems-3/ et le manuel de mise en œuvre https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf ) Cette démarche repose notamment sur l’audit des systèmes à base d’Intelligence Artificielle.

En effet il existe dans le domaine de l’Intelligence Artificielle, comme de manière plus générale en informatique, un certain nombre de bonnes pratiques ([2]) que les professionnels appliquent faute de quoi les systèmes finissent par dériver et finissent par commettre des erreurs ou « se planter ». En Intelligence Artificielle on parle plutôt dev "biais" et en IA Générative « d’hallucination ».

Les bonnes pratiques sont d’abord celles qui sont communes à tous les projets et à toutes les applications informatiques. Il y a ensuite un certain nombre de bonnes pratiques spécifiques aux systèmes à base d’Intelligence Artificielle (voir les slides 15 et 16 ci-dessous). Certaines sont faciles à mettre en œuvre comme la possibilité pour un utilisateur de demander l’assistance d’un être humain et d’autres sont nettement plus complexes réaliser comme la lutte contre les biais. La plupart de ces bonnes pratiques sont aujourd’hui connues, d’autres vont apparaitre au fur et à mesure des progrès réalisés en matière d’Intelligence Artificielle.

A la question : « Peut-on encore contrôler l’Intelligence Artificielle ? » la réponse est bien entendu positive. Pour maitriser ces applications il est nécessaire d’effectuer périodiquement des audits de ces systèmes en fonction des niveaux de risques identifiés comme on le fait pour la comptabilité, la facturation, la paie, …. Plus ces applications concernent un grand nombre d’utilisateurs, plus les enjeux sont importants, plus les niveaux de risques sont élevés et plus il est nécessaire de les auditer.

Ceci permet d’éviter de mettre en place des procédures de contrôles lourdes et globalement peu efficaces et ainsi d’éviter les dérives bureaucratiques comme celles qui ont été constatés avec le RGPD.

 En matière de recherche et d’innovation il existe une règle fondamentale : il est important de laisser les développeurs et les exploitants travailler en leur rappelant, que pour éviter toute dérive il est nécessaire de respecter les bonnes pratiques. Il est toujours possible de limiter le nombre de contrôles mais, en cas de dérives significatives et répétées, il faut rapidement réagir et prendre les mesures correctives qui s'imposent et le cas échant de débrancher le système si les risques sont trop élevés. 

Ce texte est un résumé de la conférence que Claude Salzman a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Décembre 2023 sur le thème : « Peut-on encore contrôler l’Intelligence Artificielle ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quels sont les risques et les menaces liées à l’Intelligence Artificielle ?

-        N’est-il pas déjà trop tard pour espérer les réduire ?

-        Arrivera-t’on a réellement maitriser ces systèmes ?

-        Peut-on encore contrôler l’Intelligence Artificielle ? 

-        Que se passera t ’il s’ils échappent à notre contrôle ?

-        Comment éviter que l’homme deviennent l’esclave de ces systèmes ?

-        Quels sont les dispositifs à mettre en place pour arriver à maîtriser ces systèmes ?

-        ….

 Lire ci-dessous le support de présentation de l’exposé de Claude Salzman :

                                                                                                          Slide

1 – Panique à bord                                                                   3

2 – La multiplication des initiatives                                        4

3 – La grande peur du Kraken                                                 6

4 – Les deux stratégies                                                          10

5 - Réglementer et punir                                                        11

6 – Les péripéties de l’AI Act                                               12

7 – La contrainte volontaire                                                  13

8 – Auditer dit-il                                                                    14

9 – Conclusion                                                                       17

Retour sur la question du titre                                               18

 


[1] - Curieusement HAL c’est IBM décalé d’un caractère vers la gauche. Etonnant ?

[2] - Il est difficile de définir ce que sont les bonnes pratiques. Par contre on voit bien ce que sont les mauvaises pratiques. On peut définir les bonnes pratiques en disant que ce sont les opérations et les contrôles que chacun sait qu’il faut faire mais que parfois on oublie d’effectuer.

Aucun commentaire: