Qualité de villes, le magazine du groupe RATP qui donne à voir LA VILLE AUTREMENT.

Retour au site RATP GROUP

Rencontre

Rencontre avec Françoise Soulié-Fogelman

Françoise Soulié-Fogelman a travaillé avec l’Institut mines télécom sur la plateforme big data TeraLab avant d’enseigner plusieurs années en Chine, à l’université de Tianjin. Aujourd’hui membre du conseil d’administration du Hub France IA, elle participe au sein du AI High-Level Experts Group de la Commission européenne à l’élaboration de la stratégie européenne dans ce domaine.

La prolifération des données soulève-t-elle de nouvelles questions éthiques ?

Je dirais plutôt que nous aurions déjà dû nous poser ces questions depuis longtemps. Le secteur du numérique a été structuré par des acteurs privés, non européens, les Gafam (Google, Apple, Facebook, Amazon et Microsoft), qui se sont développés à toute allure, sur un terrain vierge. Les utilisateurs de Facebook, Google ou Waze donnent déjà depuis longtemps un nombre incroyable d’informations, sans se poser aucune question. Qui désinstalle l’appli déjà préinstallée sur le smartphone que vous venez d’acheter et qui compte le nombre de pas que vous faites dans la journée ? Personne.

Ce qui me semble tout à fait irrationnel, c’est que l’opinion refuse aujourd’hui de faire la même chose lorsque le gouvernement propose d’utiliser une application pour tracer les malades du Covid-19. Par manque de culture et d’éducation, le grand public ne se rend absolument pas compte de ce qui est fait des données qu’il abandonne si volontiers au secteur privé. Dans le même temps, il manifeste une grande défiance, extrêmement inquiétante, vis-à-vis des gouvernants. Il y a beaucoup de fantasmes autour de ces questions.

Comment remédier à ce manque d’éducation numérique ?

Il faudrait en effet que chaque citoyen, à commencer par les plus jeunes, comprenne ce que sont le numérique et l’intelligence artificielle (IA). J’ai participé pour l’Institut Montaigne à l’élaboration d’une formation en ligne, gratuite, accessible à tous, baptisée « Objectif IA ».

L’ambition est de former au moins 1 % de la population française, soit 670 000 personnes, aux fondamentaux de l’intelligence artificielle. Arrêtons de dire n’importe quoi, apprenons les bases et reparlons ensuite de ces questions éthiques !

Les exemples d’applications de tracking comme celles utilisées en Chine n’ont-elles pas alimenté l’inquiétude que vous évoquez ?

Peut-être, mais le contexte chinois est très particulier : la Chine n’est nullement un régime démocratique et le « score social », c’est-à-dire le fait que le gouvernement collecte absolument toutes les données de ses citoyens à partir des équivalents chinois de Google, Amazon ou Facebook, est complètement entré dans les mœurs. Par ailleurs, les Chinois ont une relation à l’innovation, un appétit pour la nouveauté qui les ont fait adhérer à ces applications de tracking de façon tout à fait naturelle.

Sur ces questions profondes, qui touchent aux fondements de notre organisation sociale, les Européens n’ont pas du tout la même approche. L’Union européenne défend le principe du AI for good and for all. Le parti pris éthique est clair et marque que le numérique doit contribuer à la cohésion sociale, pas au contrôle des individus.

Francoise_Soulie_Havas_2_800

Mais n’est-il pas trop tard pour donner un cadre éthique et construire la confiance ?

Même si les Gafam ne sont bien sûr pas favorables à une régulation, je suis convaincue que nous pouvons agir, au niveau européen. Le groupe d’experts AI High-Level Experts, dont je fais partie, a remis en avril 2019 à la Commission européenne ses « Lignes directrices pour une IA digne de confiance ». Nous avons précisément choisi de considérer l’éthique comme un outil pour construire la confiance. Dans ce document, nous partons de l’idée que les citoyens et consommateurs ont besoin d’être rassurés sur l’usage fait de leurs données. Ils ont besoin d’un contrat clair : je donne ou je vends mes données mais à condition qu’on me dise pourquoi, comment et pour combien de temps.

Nous pensons même que l’idée d’IA « digne de confiance » peut être un avantage concurrentiel. Nous souhaitons ainsi proposer aux entreprises qui développent des produits intégrant de l’IA une liste de questions qui leur serviront à s’autoévaluer. À terme, on pourrait même imaginer que ces évaluations soient laissées à la discrétion des entreprises pour la plupart des produits ou services mais deviennent obligatoires pour les applications « à risque », celles liées au véhicule autonome par exemple, ou au déblocage des aides sociales. Ce sont en effet des applications dont la robustesse et l’éthique doivent être irréprochables.

Pourquoi les Gafam, qui ne l’ont jamais fait jusqu’à présent, se soumettraient-elles demain à ce type d’évaluation ?

Elles sont puissantes et bien installées, c’est vrai. Mais le Far West et la ruée vers l’or ne peuvent pas durer éternellement, à un moment la régulation reprend ses droits. Ni les Américains ni les Chinois n’investissent le terrain de l’éthique, c’est une chance pour l’Europe, qui est la bonne échelle pour aborder ces sujets. Nous avons bien montré avec le règlement général sur la protection des données (RGPD) que nous pouvions donner l’exemple et nous positionner en leader d’une technologie éthique et de pointe. L’instauration du RGPD a suscité à l’époque une levée de boucliers, la régulation étant réputée brider la compétitivité, mais on voit aujourd’hui que les États-Unis nous emboîtent le pas, la Californie allant même vers une réglementation encore plus contraignante que le RGPD. Donc, c’est possible !

Quid des citoyens ? Peuvent-ils être acteurs de ces évolutions ?
La vraie question est celle de l’équilibre : qu’acceptons-nous de donner et en échange de quoi ? Pour que la confiance soit là, il faut un contrat clair. Demain, si je veux utiliser un véhicule autonome, j’accepterai d’échanger un service de mobilité très performant contre l’utilisation des données de mon trajet. On pourra accepter ce contrat ou le refuser. Mais pour l’instant, ce contrat clair avec les Gafam n’existe pas.

Le big data en première ligne de la pandémie

Collecte de données et traçage sont au cœur de la crise sanitaire du Covid-19, avec, selon les pays, des approches plus ou moins coercitives.
La Corée du Sud et la Chine ont rendu les applications
de traçage obligatoires, transformant les smartphones en véritables « mouchards ». Avec Hamagen (le bouclier), Israël a opté pour le tracking volontaire, via une appli parrainée par le ministère de la Santé et téléchargée par les personnes qui le souhaitaient.

Aux États-Unis, les chercheurs de l’université Carnegie-Mellon se sont appuyés sur la puissance des réseaux sociaux pour établir une carte dynamique de la propagation du virus dans le pays. Ils ont proposé aux utilisateurs de Facebook un questionnaire pour renseigner leurs symptômes et ont croisé ces remontées avec l’analyse des recherches Web des internautes sur Google. En France, l’appli TousAntiCovid (anciennement StopCovid), dont le lancement le 2 juin avait suscité un vif débat, a été mise à jour en octobre et est désormais enrichie via l’accès à des informations factuelles et sanitaires sur l’épidémie. À fin octobre elle a été téléchargée plus de 7 millions de fois depuis sa sortie.

Retour au site RATP GROUP