par Claude
Salzman
Pendant longtemps l’Intelligence Artificielle était une sorte de Sœur Anne de l’informatique. On en parlait beaucoup et souvent mais on ne voyait rien venir, si ce n’est la route qui « poudroie ». Depuis quelques années on assiste à la multiplication des applications recourant à l’Intelligence Artificielle. Et le mouvement tend à s’accélérer notamment depuis l’apparition de ChatGPT. Mais ces développements posent un important problème : peut-on réellement avoir confiance dans les décisions prises par les systèmes d’information recourant à ces technologies ?
Pour les applications simples comme les suggestions des vidéos qu’il est conseillé de voir sur YouTube ou sur Netflix cela ne pose pas de problème. Par contre, leur emploi est nettement plus délicat lorsqu’on recourt à un système d’aide au diagnostic médical ou lorsqu’on s’installera un jour dans une future voiture autonome. Dans ces cas les risques sont importants et chacun s’interroge :
- - Est-ce que le système fait honnêtement son travail ?
- - Est-ce que les décisions prises sont justifiés ?
- - N’existe-t-il pas des biais qui pénaliserait tel ou tel groupe de personnes ?
- - A-t-on une maîtrise suffisante et en dernier ressort du système ?
- - Est-ce que la confidentialité des données personnelles est respectée ?
- - …
Toutes ces questions se ramène en fait à une seule : est-ce que ces systèmes à base d’Intelligence Artificielle sont dignes de confiance ? C’est un point fondamental car si les personnes amenées à les utiliser applications ont des doutes sur leur sincérité et leur efficacité très vite elles seront abandonnées.
La confiance est donc un facteur clé de succès. Pour cela, il est important de s’assurer que tout a été effectué comme cela aurait dû être fait que ce soit lors de la conception et la réalisation de l’application, au moment de la mise en œuvre des processus d’entrainement du système, dans le cadre de son exploitation, dans le cadre de sa mise en œuvre et de l’assistance aux utilisateurs, et ensuite lors de sa maintenance, …. Ce sont les bonnes pratiques, c’est-à-dire ce que tout professionnel sait qu’il faut faire mais, qu’en pratique, n’est pas toujours mis en œuvre. Il est donc nécessaire de s’assurer que ces règles soient effectivement respectées. C’est le rôle de l’audit des systèmes d’information à base d’Intelligence Artificielle.
Pour cela il va être de plus en plus recommandé d’auditer systèmatiquement tous les systèmes à base d’Intelligence Artificielle ayant des niveaux de risques et d’enjeux importants. La législation européenne en cours de maturation identifie huit domaines tel que : le recrutement et l’évaluation du personnel, l’accès à l’enseignement, aux prestations sociales, la mesure de la solvabilité, l’évaluation de la récidive, l’application de la loi, … Mais en dehors de cette liste les entreprises sont fortement incités à évaluer leurs applications recourant à l’Intelligence Artificielle que ce soit lors de leur conception, de la réalisation, du paramétrage, de l’exploitation, de la maintenance, …
La conférence de Claude Salzman faite dans
le cadre du Club de la Gouvernance des Systèmes d’Information le Mercredi 21 décembre 2022 sur le
thème : « Arriver à avoir une Intelligence
Artificielle digne de confiance ». Elle a permis de faire le
point sur ce sujet et de répondre aux questions clés que chacun se pose :
-
Quel est le rôle des organisations tel que
l’OCDE, le G20, l’UE, … dans la promotion et le contrôle des applications
à base d’Intelligence Artificielle ?
-
Que va changer l’AI Act que l’Union
Européenne est en train de préparer ?
-
Comment se protéger contre l’effet de
« boîte noire » induit par les systèmes à base d’Intelligence
Artificielle ?
-
Peut-on maîtriser l’ensemble des
opérations basées sur l’Intelligence Artificielle ?
-
Quelles sont les bénéfices attendus de
l’Intelligence Artificielle ?
-
Quel est l’importance des risques et des
incertitudes liés à ces applications ?
-
Comment va évoluer le droit informatique
sous l’influence de ces traitements ?
-
Quel est le rôle de l’éthique dans le
développement de l’Intelligence Artificielle ?
-
…
Cet exposé repose sur les
travaux effectués par un groupe de travail commun à l’Académie des Sciences
Comptables et Financières et l’ISACA-AFAI et qui a publié, à ce jour, deux
documents de référence :
-
Intelligence Artificielle et Confiance :
Réglementation, enjeux, risques et certification : 50 pages, octobre 2021 :
https://www.lacademie.info/intelligence-artificielle-et-confiance-reglementation-enjeux-risques-audit-et-certification
-
Vers des intelligences artificielles digne de
confiance : 200 pages, novembre 2022 : https://www.lacademie.info/vers-des-intelligences-artificielles-dignes-de-confiance
Le groupe de travail a
organisé sur ce sujet différentes conférences :
Ce sont les webinaires
sont :
-
Janvier 2021 durée 2 h 16 : https://www.youtube.com/watch?v=AxHDYQ3uPFM&t=4650s
-
Septembre 2021 durée 1 h 44 :https://www.youtube.com/watch?v=cQRw3UimZ7c&t=2482s
- Avril 2022 : durée 3 h :https://vimeo.com/703701281
Un colloque a eu lieu le 13 décembre 2022 : durée 6 h 20 : https://www.youtube.com/watch?v=K2KqVObhPBU
Slide
1 –
Apparition d’une législation européenne 5
2 – Une
situation plus délicate qu’il n’y parait 7
3 – Des
systèmes d’Intelligence Artificielle digne de confiance 8
4 – Les
grandes typologies de système d’Intelligence Artificielle 9
5 – Les
bénéfices de l’Intelligence Artificielle 10
6 – Les
risques et les incertitudes de l’Intelligence Artificielle 12
7 –
Nécessité d’un droit de l’Intelligence Artificielle 13
8 – L’éthique
de l’Intelligence Artificielle 14
9 –
Vers une Intelligence Artificielle digne de confiance 15
Aucun commentaire:
Enregistrer un commentaire