Jean-Gabriel Ganascia : “Il faut qu’un dialogue s’institue entre l’homme et la machine”
Propos recueillis par Florian Padoan et Océane Provin
Mathématicien et philosophe, spécialiste de l’intelligence artificielle, professeur d’informatique à la faculté des sciences de Sorbonne Université et président du comité d’éthique du Centre national de la recherche scientifique (CNRS), Jean-Gabriel Ganascia propose de prendre des précautions avec les technologies. Il prône une meilleure éducation de la population aux enjeux d’avenir autour de l’intelligence artificielle.
Quels sont les principaux enjeux éthiques liés à l’irruption dans notre vie quotidienne de l’intelligence artificielle et comment maintenir une vraie vigilance vis à vis des différents usages que l’on peut faire des algorithmes ?
Jean-Gabriel Ganascia : beaucoup ont peur de la « gouvernementalité » algorithmique qui conduirait à que nous soyons soumis à une forme dictature des ordinateurs. Pourtant n’y a pas d’antinomie radicale entre démocratie et algorithmes. Bien au contraire, un régime est juste parce qu’il y a des règles, et une constitution n’est qu’en enchaînement de règles, c’est-à-dire un algorithme. Les algorithmes nous sauvent donc de l’arbitraire. Ce dont il faut se méfier, ce sont des hommes derrière ces algorithmes. Des hommes qui ne sont pas toujours très bien intentionnés, parce que cela représente des enjeux de pouvoir considérables. En ce sens, ce ne sont pas les algorithmes en eux-mêmes qui posent problème, mais le fait que des machines soient programmées par des personnes, sans que l’on sache exactement quels critères sont choisis pour prendre des décisions. L’intelligence artificielle est de plus en plus utilisée dans des dispositifs matériels usuels, par exemple dans des téléphones portables qui font appel à la reconnaissance vocale et à la reconnaissance faciale, ou dans des agents conversationnels. Or, ces dispositifs jouent désormais un rôle central dans le monde moderne. Grâce à eux, les grands acteurs d’Internet récupèrent les traces de nos activités et, avec elles, nous profilent et ciblent la publicité afin de la rendre plus efficace. Cette approche s’est révélée très rentable en matière commerciale. On l’utilise aussi à des fins politiques, ce qui pourrait avoir des effets délétères, en cela que cela permet de manipuler les citoyens. Il ne faudrait donc pas en laisser la maîtrise exclusive à des techniciens ou à des hommes politiques. Cela concerne et regarde l’ensemble des citoyens.
Pourquoi y a-t-il une telle méfiance envers l’application Tous anti Covid, alors que des précautions ont-été prises ? Comment rassurer les gens ?
J-G. G. : au départ, il y eut une inquiétude, assez légitime, car on importait en Europe une solution venue d’Asie du Sud-Est, où les États sont moins soucieux des libertés que les nôtres. Pour éviter les dérives, on doit savoir qui va se servir des données, s’assurer qu’elles ne seront pas utilisées n’importe comment et qu’on ne les conservera pas indéfiniment. Tout cela a été vérifié en France dans l’application StopCovid, mais ces protections n’ont pas été suffisamment expliquées. Des intellectuels et même parfois des informaticiens ont attisé les peurs et ont ainsi amplifié les inquiétudes du public. Cela suscita des discours incroyablement anxiogène affirmant qu’on rentrait dans ère de surveillance de masse. Cette application fit l’objet de tellement de critiques que le gouvernement n’a pas osé communiquer dessus. Un vrai paradoxe. Cela explique que peu de gens l’aient téléchargée au départ.
L’article 22 de la loi sécurité globale prévoit que certaines images de rassemblements de personnes sur la voie publique pourraient être transmises en temps réel et conservées dans certaines circonstances au-delà de 30 jours. De telles dispositions ne questionnent-elles le droit de regard des citoyens sur l’utilisation de leurs données ? Quelle éthique adopter concernant l’utilisation et le stockage des données des personnes ?
J-G. G. : Le traçage par lui-même n’est pas condamnable. On peut recueillir un certain nombre de données pour assurer la sécurité publique ou pour prévenir des catastrophes, par exemple des incendies ou des épidémies. À condition que cela ne nous empêche pas de manifester, et que les libertés, par exemple la liberté d’aller et de venir et la liberté de réunion, soient respectées. À cette fin, il faut qu’un certain nombre de lois puissent s’appliquer. Si on a des caméras partout et qu’on peut détecter avec qui nous sommes allés prendre un café, cela devient extrêmement intrusif, insupportable et inadmissible. Il faut être particulièrement attentifs pour éviter de telles dérives. Les images recueillies dans l’espace public ne doivent être accessibles que dans des conditions bien particulières et sur requête d’un magistrat. Et, il faut s’assurer qu’on ne recueille jamais d’images dans l’espace privé.
Comment s’assurer que les outils technologiques de surveillance sur la voie publique ne fournissent pas d’informations erronées ? Dans quelle mesure ces technologies peuvent se tromper ?
J-G. G. : ces outils risquent de donner des informations qui peuvent être soit mal interprétées, soit falsifiées. En conséquence, les images de vidéo-surveillance ou les enregistrements téléphoniques ne devraient jamais suffire à eux-seuls, mais constituer des indices parmi d’autres dans une investigation. Si jamais nous utilisons ces outils de surveillance sur la voie publique, il faut être très vigilants et s’assurer que ça ne se substitue pas à la présence humaine. Comme cela coûte moins cher et que cela rassure la population, beaucoup de maires sont tentés par l’introduction de réseaux de caméras de surveillance dans les villes au détriment d’une police de proximité qui connaîtrait les gens et aurait une meilleure compréhension des difficultés. Ce sont des problèmes politiques extrêmement importants.
L’utilisation des données médicales par l’intelligence artificielle pour établir un diagnostic de santé ne pose-t-elle pas la question de la responsabilité en cas d’erreur ? Comment répondre à de telles préoccupations ?
J-G. G. : Dans le domaine de la santé, les réponses sont claires, du moins en France. La responsabilité de la décision appartient toujours au médecin et à lui seul. Pour l’instant, la machine n’est là que comme une aide ; elle suggère, sans s’imposer. En aucun cas le médecin ne peut invoquer une décision prise par la machine. Si celle-ci vous donne une réponse et qu’elle n’est pas capable de l’expliquer, elle se présente comme un oracle auquel on doit se soumettre. On ne doit pas l’accepter. Il faut qu’un dialogue s’institue entre l’homme et la machine. C’est pour cela que beaucoup de travaux d’intelligence artificielle portent aujourd’hui sur l’explicabilité et que l’on cherche à bâtir une forme d’argumentation au cours de laquelle machines et hommes échangent arguments et contre-arguments.
Dans un article intitulé « Éthique et intégrité scientifique à l’heure de la MaCoV-19 », paru dans la revue de Neuropsychologie, vous déplorez, au début de l’épidémie, une certaine précipitation au détriment de la rigueur scientifique. Comment éviter de sacrifier l’éthique de l’expérimentation, même dans un contexte de crise sanitaire ? Et comment ne pas reproduire les mêmes erreurs dans le cadre des futures campagnes de vaccination contre la MaCov-19 ?
J-G. G. : En tant que scientifique et président du comité d’éthique du CNRS j’ai été stupéfait de voir les choses qui se sont produites. La controverse scientifique est essentielle mais ce n’est pas la même chose que le débat médiatique ou politique. Il ne s’agit pas d’affirmer des convictions mais d’émettre des hypothèses tout à la fois provisoires et étayées sur des faits. Les positions scientifiques sont amenées à être dépassées car les chercheurs se soumettent à l’évidence de preuves scientifiques que des faits nouveaux sont toujours susceptibles d’infirmer. Vis à vis de la vaccination, il y a une hostilité de principe dans le public, indépendamment des résultats qui sont apportés. Il est important d’expliquer qu’il y a des preuves. On dit que les vaccins sont en phase trois. Il faut préciser au grand public ce que ça signifie. Pour qu’il y ait une confiance de la population envers les scientifiques, nous devons mentionner tout à la fois la rigueur de la démarche scientifique et les zones d’inconnu qui peuvent subsister.
Dans votre livre, Le mythe de la Singularité, vous présentez des théories selon lesquelles l’humanité pourrait perdre le contrôle face à des intelligences artificielles capables de prendre le dessus, comment faire en sorte que cela n’arrive pas, comment faire des technologies nos alliées ?
J-G. G. : Une grande partie de ces théories de la Singularité technologique relèvent plus de l’ordre de l’imaginaire que de la réalité. Les machines sont, du moins aujourd’hui, programmées par les hommes et peuvent se retourner contre nous parce qu’elles nous échappent un peu, ça arrive extrêmement souvent. En revanche, l’idée qu’elles prennent leur autonomie au sens philosophique, cela relève de l’imaginaire. Il peut y avoir des effets pernicieux de ces technologies, soit parce qu’elles nous échappent, soit parce que des gens les utilisent intentionnellement contre nous. Quand on est informaticien, on le sait, parce qu’on constate que nos programmes font parfois des choses que nous n’avons pas imaginées. Il faut sans doute mettre en place davantage de procédés de validation des outils d’IA que ce que l’on a actuellement.
Les algorithmes sont nourris par des hommes qui ont des biais cognitifs, qui sont influencés par des préjugés… Comment éviter que les algorithmes créent des discriminations ?
J-G. G. : Il existe une idéologie couramment répandue aux États-Unis selon laquelle les machines aspirent les données du monde et sont capables à partir de cela d’émettre des jugements et de prendre des décisions qui seraient objectives parce que systématiques. Mais il faut bien expliquer l’ensemble du processus. Toutes les données, même une photographie, ne sont pas totalement objectives : elles dépendent d’un éclairage, d’une longueur d’ondes, de la résolution de l’appareil etc. On dit souvent que les systèmes de reconnaissance faciale sont à la fois sexistes et racistes. Ils reconnaissent moins bien les femmes et les gens de couleur. Cela peut tenir à deux choses. Des ensembles d’apprentissage déséquilibrés (moins de femmes, moins de gens de couleur dans les données). Ou alors, des limitations intrinsèques : les femmes ont plus souvent l’habitude de se maquiller que les hommes, ce qui peut induire en erreur les logiciels de reconnaissance faciale. Il faudrait maîtriser tous ces paramètres. Cela veut, dire, en tout cas, qu’il n’y a pas d’objectivité totale de la machine. Des erreurs sont possibles. Il peut aussi y avoir des utilisations choquantes de la reconnaissance faciale, comme celles de la Chine, par exemple, qui y fait appel pour reconnaître automatiquement les ouighours « au faciès ». Toujours dans cet ordre d’idées, en 2017, une étude publiée par le laboratoire de psychologie sociale de Stanford expliquait pouvoir reconnaitre l’orientation sexuelle de manière systématique à partir de photographies des visages. Ces choses sont révoltantes. C’est une naturalisation de la sexualité : cela laisse entendre que l’orientation sexuelle est inscrite sur le visage et que l’on n’y peut rien, alors que cela résulte de choix libres d’individus susceptibles, d’ailleurs, d’en changer au cours de leur vie.
L’utilisation de plus en plus fréquente de l’intelligence artificielle dans tous les domaines de la société, ne risque-t-elle pas d’entrainer plus de fracture sociale, économique, et culturelle ?
J-G. G. : C’est bien le problème. Nous devons absolument l’éviter. Un livre, Weapons of Math Destruction, de Cathy O’Neil * explique à quel point les outils de l’intelligence artificielle peuvent être très utiles, mais aussi très dommageables pour le tissu social lorsqu’ils sont utilisés pour la justice prédictive, le calcul des primes d’assurance, l’évaluation des professeurs etc. L’emploi irraisonné l’intelligence artificielle ne peut qu’accroitre le sentiment de frustration. Ce qui a certainement mis au pouvoir D. Trump aux États-Unis en 2016, repose sur le fait qu’une grande partie de la population américaine se sentait laissée pour compte et nourrissait une grande hostilité vis à vis de la mondialisation et des technologies. L’enjeu majeur aujourd’hui est le suivant : faire en sorte que la majeure partie de la société comprenne et s’approprie ces évolutions pour elle-même. Il faut que la population s’en imprègne vraiment, que les citoyens ne se contentent pas de manifester une hostilité envers la technologie, mais qu’ils essaient de se l’approprier. L’éducation du public tout au long de la vie, entre autres par les journalistes, permettra d’éviter des craintes irraisonnées. C’est un enjeu majeur du futur.
*Cathy O Neil (2016), Weapons of Math Destruction, Crown.