Pages

lundi 22 janvier 2024

La véritable stratégie de Facebook et des réseaux sociaux

 Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes

par Pierre Berger.

 Facebook, c’est avant tout un homme : Marc Zuckerberg. Il a une personnalité étonnante. Aujourd’hui il a 40 ans et il est à la tête d’une fortune de 120 milliards de dollars. L’entreprise comprend 86.000 salariés mais il la dirige entouré par une petite équipe comprenant seulement une dizaine de collaborateurs de haut niveau.

Après deux années difficiles 2022 et 2023 est-ce que l’entreprise va reprendre la rapide croissance qu’elle a connu dans le passé. Que va-t-il se passer dans les années à venir ? Il est impossible de le prédire étant donné les évolutions très rapides du secteur et notamment l’impact de l’Intelligence Artificielle et en particulier les progrès sidérants constatés depuis un an l’IA Générative, sans parler des évolutions erratiques de la situation internationale et les contraintes dues à la transition de l’écologie.

Des milliards d’utilisateurs à travers le monde se servent quotidiennement des réseaux sociaux et en particulier de Facebook. Ainsi dans ma ville, à Maison Lafitte, il existe un site d’échange ouvert à tous les habitants. 12 000 membres fréquentent ce groupe, ce qui fait beaucoup pour une ville de 25 000 habitants. C’est un moyen très performant pour informer les gens La véritable stratégie de Facebook et des réseaux sociaux »

Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes aussi pour résoudre les mille et un petits problèmes du quotidien comme les chiens recherchés ou les objets perdus. C’est aussi un moyen d’échanger entre les participants sur des sujets d’intérêt communs comme les décisions ou les non-décisions de la Mairie, les nouveaux permis de construire... En fait, seule une petite minorité est vraiment active et le reste des utilisateurs se contente de s’informer et, le cas échéant, de cliquer des « like ».

Le projet d’origine de Marc Zuckerberg était ambitieux et généreux. Il voulait donner la parole aux gens afin que chacun puisse s’exprimer librement et gratuitement. C’est une forme absolue de la démocratie. Mais il y a loin des intentions à la réalité. Depuis deux décennies, il a manifesté en toutes circonstances un pragmatisme assez éloigné des considérations théoriques ou des grands principes éthiques. En fait son véritable objectif est la croissance de Facebook et le profit à tout prix. En effet ce réseau social est un support de publicité très efficace et plus le trafic est important plus les gains de l’entreprise sont importants. Pour cela il suffit d’inciter les participants à échanger et très vite à polémiquer. Très vite le ton monte et les invectives arrivent. C’est la porte ouverte au défoulement de tous les frustrés du monde.

Dans ces conditions les efforts de modération deviennent marginaux. Normalement tout message mensonger, choquant ou haineux devrait être rapidement supprimé. Mais, compte tenu du nombre de sites dans de très nombreuses langues cela devient très vite « mission impossible ». Les équipes chargées de faire ce travail ont été réduites au profit d’algorithmes à base d’Intelligence Artificielle avec des résultats incertains.  

Techniquement, Marc Zuckerberg pousse ses développeurs à aller le plus vite possible pour passer de l’idée à la mise en production avec, par exemple, la volonté d’effectuer tous les développements en DevOps plutôt que de recourir à des développements méthodiques effectués dans le cadre des projets : « Done is better than perfect ». C’est le « vite fait, bien fait sur le coin du gaz ». Cette stratégie technique est audacieuse et originale dans le cadre d’un site ayant un si grand nombre d’utilisateurs et un trafic aussi important mais on retrouve ce type de politique dans un nombre croissant de sites de commerce électronique. C’est une stratégie risquée notamment à cause des risques de dégradation des performances mais ça marche et c’est le principal.

En fait Marc Zuckerberg, malgré ses discours officiels, rejette les grands principes de « qualité » ou de « vérité ». Ce qui compte, c’est la mobilisation des utilisateurs. Pour cela il faut mesurer cet « engagement ». Les équipes spécialisées de Facebook ont dans ce but développé un indicateur majeur : le MSI (Meaningful Social Interaction). Il permet d’évaluer la dynamique des échanges entre les participants en mesurant les interactions, le degré de participation, les attitudes des intervenants et le niveau de sécurité perçues par les personnes. Cet indicateur est notamment utilisé pour alimenter le « newfeed » qui affiche en permanence à l’écran des informations choisies par les algorithmes pour attirer l’attention des utilisateurs. Il est très utile mais, l’expérience montre qu’il a tendance à accroitre l’agressivité des intervenants. Ce n’était peut-être pas l’objectif recherché mais c’est le résultat obtenu.

A cela s’ajoute le poids des puissants. Ce sont des personnalités ayant une grande visibilité, des groupes de pression puissants ou des états comme les Etats-Unis, l’Inde ou le Myanmar, n’hésitent pas à faire pression sur Facebook. Face à ce type de « problèmes » il existe des solutions mais Marc Zuckerberg les a toutes rejetées. Ces attitudes opportunistes montrent bien toutes les ambiguïtés de l’entreprise.

Cependant rien n’est définitif dans le domaine des réseaux sociaux. Chaque jour on constate que de nouveaux « breakthroughs » surviennent sans prévenir et qui vont influencer les évolutions du système notamment dans le domaine de l’Intelligence Artificielle. Nous surferons sur de véritables déferlantes …

Ce texte est un résumé de la conférence que Pierre Berger a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 10 Janvier 2024 sur le thème : « La véritable stratégie de Facebook et des réseaux sociaux. Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quelles sont les raisons du succès des réseaux sociaux ?

-        Quelles sont les utilisations pratiques possibles ?

-        Quelles sont les vrais objectifs de Facebook ?  

-        De manière pratique comment les utilisateurs se servent des réseaux sociaux ?

-        Comment lutter contre les comportements perturbateurs ?

-        Après les années difficiles de 2022 et 2023 va-t-on assister en 2024 à un redémarrage ?

-        Peut-on améliorer la qualité des échanges ou doit-on prioriser la liberté d’expression ?

-        Comment contrôler les contenus sans censurer ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Pierre Berger :

                                                                                                          Slide

1 – La force de l’âge et les moyens d’agir                              2

2 – Le site de Maisons-Lafitte sur Facebook                          4

3 – La croissance avant tout                                                  12

4 – La gouvernance des contenus                                         15

5 – Modération                                                                      17

6 – Les puissants ont tous les droits                                      21

7 – Conclusion                                                                       27

 

 

 

vendredi 12 janvier 2024

Peut-on encore contrôler l'Intelligence Artificielle ?

 par Claude Salzman.

L’IA suscite de grands espoirs et notamment l’IA Générative. On n’avait jamais vu avant dans le domaine de l’informatique un enthousiasme aussi important que lors du lancement de ChatGPT. En seulement deux mois 100 millions d’utilisateurs se sont connectés au système. Mais ils suscitent aussi de nombreuses craintes. Arrivera-t’on a réellement les maitriser ? Que se passera-t-il s’ils échappent à notre contrôle ? L’homme va-t-il devenir l’esclave de ces systèmes à base d'IA ?

En mars 2023, soit 4 mois après le lancement de ChatGPT, une pétition a été lancé par une association américaine, « Futur of Life Institute », demandant que soit mis en place un moratoire de six mois sur la recherche en Intelligence Artificielle Générative (voir https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/ ). Elle évoque « un risque majeur pour l’humanité » et dénonce : « une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs ne peuvent comprendre, prédire ou contrôler de manière fiable ». Sur la base de cette affirmation ils demandent que : « tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissante que GPT-4 »

Cette attitude est due à un débat qui agite la Silicon Valley depuis quelques années sur les risques de catastrophe planétaire dues à l’Intelligence Artificielle et particulièrement l’IA Générative. Il oppose deux clans : les optimistes et les pessimistes. Les premiers sont les enthousiastes qui ont une grande confiance dans la technologie. Ils s’identifient comme les « Effective Acceleration » ou en californien les « e/acc ». Les seconds sont les catastrophistes appelés les « AI Doomers ». Ils craignent que bientôt une superintelligence va apparaitre et se retourner contre l’humanité : chômage massif puis sa mise en esclavage et enfin son élimination car elle serait devenue inutile. Ils sont influencés par deux livres :

-        En 2000, Bill Joy co-fondateur de Sun Microsystems a écrit un livre étrange : « Pourquoi l'avenir n'a pas besoin de nous ». Il explique dans cet ouvrage que rapidement on va assister à l’arrivée des robots superintelligents qui constituent un danger pour la survie de l’humanité. C’était il y a 24 ans !

-        Plus récemment, en 2014, Nick Bostrom, a publié "Superintelligence, chemins, dangers, stratégies". C’est un des penseurs clés du transhumanisme. Il affirme que les superintelligences artificielles constituent un risque existentiel pour l’humanité car elles seraient incontrôlables. Pire : elles agiraient de manière anticipée de façon a empêcher toute tentative de les contrôler. On se croirait dans le film de Stanley Kubrick « 2001 Odyssée de l’espace » ou l’ordinateur de bord HAL ([1]) veut tuer l’équipage du vaisseau spatial pour se sauver.

Pour en savoir plus sur ces légendes il existe une curieuse page de Wikipédia sur les « Risques de catastrophe planétaire lié à l’intelligence artificielle » : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale#:~:text=Les%20syst%C3%A8mes%20avanc%C3%A9s%20d'IA,elle%2Dm%C3%AAme%20si%20mal%20align%C3%A9e.

On est loin des trois lois de la robotique d’Isaac Asimov dans "Cycle de Fondation" (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique) et notamment la première loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ». Chez Nick Bostrom c’est exactement l’inverse : le robot ne peut que nuire à l’homme et chercher sa perte. 

C’est le Kraken. C’est le mot à la mode du côté de San Francisco. C’est un animal mythique issue du fond culturel norvégien. C’est une sorte de calamar géant sortant des grands fonds marin pour détruire les bateaux et tuer tous les marins (voir les dessins du Kraken dans les slides ci-dessous).

Rassurons nous il n’y a pas de Kraken et le moratoire demandé par le « Futur of Life Institute » n’a pas été mis en place. Par contre on a assisté entre le mois de mai et novembre 2023 à une multiplication des initiatives des Etats et des organisations internationales dans ce domaine. Chacun a proposé un ou plusieurs moyens de réguler les développements de l’Intelligence Artificielle. Tout le monde s’y est mis : l’Union Européenne, les gouvernements américains et anglais, le G7, l’ONU, … Cela va de l’interdiction de certaines applications comme la reconnaissance faciale à la nomination d’un GIEC pour l’Intelligence Artificielle analogue à celle sur le climat.

Tous conviennent qu’il est nécessaire de contrôler ce « monstre » Mais comment s’y prendre ? Deux approches s’affrontent : l’européenne et l’américaine.

-        L’UE mise sur une réglementation détaillée et assez rigoureuse qui est en discussion depuis plus de quatre ans : l’AI Act. Ce texte n’est pas sans rappeler le RGPD. C’est un ensemble de règles strictes concernant la conception, les tests et l’exploitation des systèmes d’information à base d’Intelligence Artificielle. En fait c’est une transposition de la procédure de mise sur le marché des médicaments.

-        Aux USA comme au G7 on parie sur l’autorégulation ainsi que sur la responsabilisation des entreprises du secteur et des administrations concernées. C’est, par exemple, le dispositif mis en place dès novembre 2022 par la Maison Blanche qu'elle cherche à mettre en place dans les administrations fédérales (https://www.whitehouse.gov/ostp/ai-bill-of-rights/safe-and-effective-systems-3/ et le manuel de mise en œuvre https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf ) Cette démarche repose notamment sur l’audit des systèmes à base d’Intelligence Artificielle.

En effet il existe dans le domaine de l’Intelligence Artificielle, comme de manière plus générale en informatique, un certain nombre de bonnes pratiques ([2]) que les professionnels appliquent faute de quoi les systèmes finissent par dériver et finissent par commettre des erreurs ou « se planter ». En Intelligence Artificielle on parle plutôt dev "biais" et en IA Générative « d’hallucination ».

Les bonnes pratiques sont d’abord celles qui sont communes à tous les projets et à toutes les applications informatiques. Il y a ensuite un certain nombre de bonnes pratiques spécifiques aux systèmes à base d’Intelligence Artificielle (voir les slides 15 et 16 ci-dessous). Certaines sont faciles à mettre en œuvre comme la possibilité pour un utilisateur de demander l’assistance d’un être humain et d’autres sont nettement plus complexes réaliser comme la lutte contre les biais. La plupart de ces bonnes pratiques sont aujourd’hui connues, d’autres vont apparaitre au fur et à mesure des progrès réalisés en matière d’Intelligence Artificielle.

A la question : « Peut-on encore contrôler l’Intelligence Artificielle ? » la réponse est bien entendu positive. Pour maitriser ces applications il est nécessaire d’effectuer périodiquement des audits de ces systèmes en fonction des niveaux de risques identifiés comme on le fait pour la comptabilité, la facturation, la paie, …. Plus ces applications concernent un grand nombre d’utilisateurs, plus les enjeux sont importants, plus les niveaux de risques sont élevés et plus il est nécessaire de les auditer.

Ceci permet d’éviter de mettre en place des procédures de contrôles lourdes et globalement peu efficaces et ainsi d’éviter les dérives bureaucratiques comme celles qui ont été constatés avec le RGPD.

 En matière de recherche et d’innovation il existe une règle fondamentale : il est important de laisser les développeurs et les exploitants travailler en leur rappelant, que pour éviter toute dérive il est nécessaire de respecter les bonnes pratiques. Il est toujours possible de limiter le nombre de contrôles mais, en cas de dérives significatives et répétées, il faut rapidement réagir et prendre les mesures correctives qui s'imposent et le cas échant de débrancher le système si les risques sont trop élevés. 

Ce texte est un résumé de la conférence que Claude Salzman a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Décembre 2023 sur le thème : « Peut-on encore contrôler l’Intelligence Artificielle ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quels sont les risques et les menaces liées à l’Intelligence Artificielle ?

-        N’est-il pas déjà trop tard pour espérer les réduire ?

-        Arrivera-t’on a réellement maitriser ces systèmes ?

-        Peut-on encore contrôler l’Intelligence Artificielle ? 

-        Que se passera t ’il s’ils échappent à notre contrôle ?

-        Comment éviter que l’homme deviennent l’esclave de ces systèmes ?

-        Quels sont les dispositifs à mettre en place pour arriver à maîtriser ces systèmes ?

-        ….

 Lire ci-dessous le support de présentation de l’exposé de Claude Salzman :

                                                                                                          Slide

1 – Panique à bord                                                                   3

2 – La multiplication des initiatives                                        4

3 – La grande peur du Kraken                                                 6

4 – Les deux stratégies                                                          10

5 - Réglementer et punir                                                        11

6 – Les péripéties de l’AI Act                                               12

7 – La contrainte volontaire                                                  13

8 – Auditer dit-il                                                                    14

9 – Conclusion                                                                       17

Retour sur la question du titre                                               18

 


[1] - Curieusement HAL c’est IBM décalé d’un caractère vers la gauche. Etonnant ?

[2] - Il est difficile de définir ce que sont les bonnes pratiques. Par contre on voit bien ce que sont les mauvaises pratiques. On peut définir les bonnes pratiques en disant que ce sont les opérations et les contrôles que chacun sait qu’il faut faire mais que parfois on oublie d’effectuer.