par Arnaud Billion
Après un accouchement long et douloureux l’Union Européenne a fini par produire une réglementation de l’Intelligence Artificielle. Publiée en Juin 2024 celle-ci commence à se mettre en place dans une logique d’entrée en vigueur progressive. Il est vrai que pour des raisons politiques certaines parties de ce Règlement ont été récemment décalées dans le temps, mais on voit mal comment une marche arrière serait possible dans la mesure ou le « Brussels Effect » est un signal stratégique fort.
Une lecture superficielle du Règlement européen sur l'IA (AI Act) laisse à penser que ce ne serait qu’une liste à la Prévert de tâches procédurales et bureaucratiques, une sorte de reporting institutionnel surabondant. De plus ce texte est long, bavard et mal écrit ce qui est source d’incertitude. Mais, à regarder de plus près on peut tout de même y trouver intérêt.
L’AI Act est une partie d’un ensemble réglementaire riche et complexe produit par l’Union Européenne comme le RGPD (données personnelles), le DMA (marchés numériques), le DSA (services et contenus numériques), le DGA (gouvernance numérique), le NIS2 (cybersécurité) … Ces textes sont eux-mêmes partie d’un ensemble plus vaste qui est le droit positif applicable de l’Union, lequel comprend notamment les droits nationaux. Au fil des ans cette législation se développe et s’enrichit.
Mais à quelque chose malheur est bon : les entreprises, en se penchant sur les risques de non-conformité, vont devoir se reposer la question de l’alignement stratégique, de la maintenabilité et de la valeur de leur système d’information. En effet, les prescriptions du l’AI Act peuvent être considérées comme une recension (certes incomplète, maladroite et velléitaire) de bonnes pratiques informatiques. Autrement dit, il faut chercher à lire dans l’AI Act les spécifications logicielles pertinentes et intelligentes permettant d’améliorer de manière significative le processus de transformation numérique des entreprises.
Par exemple, l’entreprise qui prendra au sérieux l’exigence posée de supervision humaine, aura une chance de conserver le contrôle des opérations (dans un contexte d’interconnexion grossièrement généralisée, dite « agentique ». Autre exemple : l’AI Act liste des applications interdites de l’IA par exemple les techniques de manipulation subliminale, ce qui permet d’éviter aux entreprises d’orienter leurs modèles d’affaires sur le service d’une société à la Orwell… mais on peut craindre que l’exercice de divination des mauvais usages de l’IA soit vain, puisque les risques sont en fait systémiques ; porter l’attention sur le soi-disant « système d’IA » n’est peut-être pas si opportun.
Elle a permis de faire le
point sur ce sujet et de répondre à quelques questions clés comme :
-
Quelles sont les
principes sous-jacents à l’AI Act et quels sont les objectifs visés par le
législateur ?
-
Quels sont, derrière ces
contraintes, les bonnes pratiques à mettre en œuvre ?
-
Comment les entreprises
peuvent prendre en compte ces obligations pour en faire une opportunité ?
-
Est-ce qu’il est possible
dès aujourd’hui de mesurer les impacts stratégiques de l’AI Act ?
-
Quels sont les pièges et
chausse-trapes de l’AI Act ?
-
Quels sont les impacts économiques et
géostratégiques de l’ensemble de ces démarches ?
-
….
Slide
1.
La problématique 3
2.
Le RIA dans son contexte
réglementaire 6
3.
Les grandes distinctions
du RIA 8
4.
Compliance et gouvernance
stratégique 10
5.
Conclusion 13
Article sur la compliance
et la gouvernance 14
Aucun commentaire:
Enregistrer un commentaire