par Claude Salzman.
L’IA suscite de grands espoirs et notamment l’IA Générative. On n’avait jamais vu avant dans le domaine de l’informatique un enthousiasme aussi important que lors du lancement de ChatGPT. En seulement deux mois 100 millions d’utilisateurs se sont connectés au système. Mais ils suscitent aussi de nombreuses craintes. Arrivera-t’on a réellement les maitriser ? Que se passera-t-il s’ils échappent à notre contrôle ? L’homme va-t-il devenir l’esclave de ces systèmes à base d'IA ?
En mars 2023, soit 4 mois après le lancement de ChatGPT, une pétition a été lancé par une association américaine, « Futur of Life Institute », demandant que soit mis en place un moratoire de six mois sur la recherche en Intelligence Artificielle Générative (voir https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/ ). Elle évoque « un risque majeur pour l’humanité » et dénonce : « une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs ne peuvent comprendre, prédire ou contrôler de manière fiable ». Sur la base de cette affirmation ils demandent que : « tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissante que GPT-4 »
Cette attitude est due à un débat qui agite la Silicon Valley depuis quelques années sur les risques de catastrophe planétaire dues à l’Intelligence Artificielle et particulièrement l’IA Générative. Il oppose deux clans : les optimistes et les pessimistes. Les premiers sont les enthousiastes qui ont une grande confiance dans la technologie. Ils s’identifient comme les « Effective Acceleration » ou en californien les « e/acc ». Les seconds sont les catastrophistes appelés les « AI Doomers ». Ils craignent que bientôt une superintelligence va apparaitre et se retourner contre l’humanité : chômage massif puis sa mise en esclavage et enfin son élimination car elle serait devenue inutile. Ils sont influencés par deux livres :
-
En 2000,
Bill Joy co-fondateur de Sun Microsystems a
écrit un livre étrange : « Pourquoi l'avenir n'a pas besoin de nous ». Il explique dans cet ouvrage que rapidement
on va assister à l’arrivée des robots superintelligents qui constituent un
danger pour la survie de l’humanité. C’était il y a 24 ans !
-
Plus récemment,
en 2014, Nick Bostrom, a
publié "Superintelligence, chemins, dangers, stratégies". C’est un des penseurs clés du transhumanisme. Il affirme que
les superintelligences artificielles constituent un risque existentiel pour
l’humanité car elles seraient incontrôlables. Pire : elles agiraient de manière
anticipée de façon a empêcher toute tentative de les contrôler. On se croirait
dans le film de Stanley Kubrick « 2001 Odyssée de l’espace » ou l’ordinateur
de bord HAL ([1])
veut tuer l’équipage du vaisseau spatial pour se sauver.
Pour en savoir plus sur ces légendes il existe
une curieuse page de Wikipédia sur les « Risques de catastrophe planétaire
lié à l’intelligence artificielle » : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale#:~:text=Les%20syst%C3%A8mes%20avanc%C3%A9s%20d'IA,elle%2Dm%C3%AAme%20si%20mal%20align%C3%A9e.
On est loin des trois lois de la robotique d’Isaac Asimov dans "Cycle de Fondation" (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique)
et notamment la première loi : « Un
robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet
être humain exposé au danger ». Chez Nick Bostrom c’est
exactement l’inverse : le robot ne peut que nuire à l’homme et chercher sa
perte.
C’est le Kraken. C’est le mot à la mode du côté de San Francisco. C’est un animal mythique issue du fond culturel norvégien. C’est une sorte de calamar géant sortant des grands fonds marin pour détruire les bateaux et tuer tous les marins (voir les dessins du Kraken dans les slides ci-dessous).
Rassurons nous il n’y a pas de Kraken et le moratoire demandé par le « Futur of Life Institute » n’a pas été mis en place. Par contre on a assisté entre le mois de mai et novembre 2023 à une multiplication des initiatives des Etats et des organisations internationales dans ce domaine. Chacun a proposé un ou plusieurs moyens de réguler les développements de l’Intelligence Artificielle. Tout le monde s’y est mis : l’Union Européenne, les gouvernements américains et anglais, le G7, l’ONU, … Cela va de l’interdiction de certaines applications comme la reconnaissance faciale à la nomination d’un GIEC pour l’Intelligence Artificielle analogue à celle sur le climat.
Tous conviennent qu’il est nécessaire de contrôler ce « monstre » Mais comment s’y prendre ? Deux approches s’affrontent : l’européenne et l’américaine.
-
L’UE mise sur une
réglementation détaillée et assez rigoureuse qui est en discussion depuis plus
de quatre ans : l’AI Act. Ce texte n’est pas sans rappeler le RGPD. C’est
un ensemble de règles strictes concernant la conception, les tests et
l’exploitation des systèmes d’information à base d’Intelligence Artificielle. En
fait c’est une transposition de la procédure de mise sur le marché des
médicaments.
-
Aux USA comme au G7 on parie
sur l’autorégulation ainsi que sur la responsabilisation des entreprises du
secteur et des administrations concernées. C’est, par exemple, le dispositif mis
en place dès novembre 2022 par la Maison Blanche qu'elle cherche à mettre en place dans
les administrations fédérales (https://www.whitehouse.gov/ostp/ai-bill-of-rights/safe-and-effective-systems-3/
et le manuel de mise en œuvre https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf
) Cette démarche repose notamment sur l’audit des systèmes à base
d’Intelligence Artificielle.
En effet il existe
dans le domaine de l’Intelligence Artificielle, comme de manière plus générale
en informatique, un certain nombre de bonnes pratiques ([2]) que les professionnels
appliquent faute de quoi les systèmes finissent par dériver et finissent par commettre
des erreurs ou « se planter ». En Intelligence Artificielle on parle
plutôt dev "biais" et en IA Générative « d’hallucination ».
Les bonnes
pratiques sont d’abord celles qui sont communes à tous les projets et à toutes
les applications informatiques. Il y a ensuite un certain nombre de bonnes
pratiques spécifiques aux systèmes à base d’Intelligence Artificielle (voir les
slides 15 et 16 ci-dessous). Certaines sont faciles à mettre en œuvre comme la
possibilité pour un utilisateur de demander l’assistance d’un être humain et
d’autres sont nettement plus complexes réaliser comme la lutte
contre les biais. La plupart de ces bonnes pratiques sont aujourd’hui connues,
d’autres vont apparaitre au fur et à mesure des progrès réalisés en matière d’Intelligence
Artificielle.
A la question : « Peut-on encore contrôler l’Intelligence Artificielle ? » la réponse est bien entendu positive. Pour maitriser ces applications il est nécessaire d’effectuer périodiquement des audits de ces systèmes en fonction des niveaux de risques identifiés comme on le fait pour la comptabilité, la facturation, la paie, …. Plus ces applications concernent un grand nombre d’utilisateurs, plus les enjeux sont importants, plus les niveaux de risques sont élevés et plus il est nécessaire de les auditer.
Ceci permet d’éviter de mettre en place des procédures de contrôles lourdes et globalement peu efficaces et ainsi d’éviter les dérives bureaucratiques comme celles qui ont été constatés avec le RGPD.
En matière de recherche et d’innovation il existe une règle fondamentale : il est important de laisser les développeurs et les exploitants travailler en leur rappelant, que pour éviter toute dérive il est nécessaire de respecter les bonnes pratiques. Il est toujours possible de limiter le nombre de contrôles mais, en cas de dérives significatives et répétées, il faut rapidement réagir et prendre les mesures correctives qui s'imposent et le cas échant de débrancher le système si les risques sont trop élevés.
Ce texte est un résumé de la conférence que Claude Salzman a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Décembre 2023 sur le thème : « Peut-on encore contrôler l’Intelligence Artificielle ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :
-
Quels sont les risques et les menaces
liées à l’Intelligence Artificielle ?
-
N’est-il pas déjà trop tard pour
espérer les réduire ?
-
Arrivera-t’on a réellement
maitriser ces systèmes ?
-
Peut-on encore contrôler l’Intelligence
Artificielle ?
-
Que se passera t ’il s’ils
échappent à notre contrôle ?
-
Comment éviter que l’homme
deviennent l’esclave de ces systèmes ?
-
Quels sont les dispositifs à
mettre en place pour arriver à maîtriser ces systèmes ?
-
….
Slide
1
– Panique à bord 3
2
– La multiplication des initiatives 4
3
– La grande peur du Kraken 6
4
– Les deux stratégies 10
5
- Réglementer et punir 11
6
– Les péripéties de l’AI Act 12
7
– La contrainte volontaire 13
8
– Auditer dit-il 14
9
– Conclusion 17
Retour
sur la question du titre 18
[1]
- Curieusement HAL c’est IBM décalé d’un caractère vers la gauche. Etonnant ?
[2]
- Il est difficile de définir ce que sont les bonnes pratiques. Par contre on
voit bien ce que sont les mauvaises pratiques. On peut définir les bonnes
pratiques en disant que ce sont les opérations et les contrôles que chacun sait
qu’il faut faire mais que parfois on oublie d’effectuer.
Aucun commentaire:
Enregistrer un commentaire