« Comment rester technolucide face au numérique et aux systèmes d’intelligence artificielle ? »

1

Dans le cadre de sa publication spéciale sur la responsabilité sociétale des entreprises, idruide a interviewé France Charruyer, Avocate spécialisée en IP/IT – Data, présidente de l’association Data Ring.

Le déclencheur a été la directive européenne de 2016, relative à la protection des données. Dans un monde se structurant autour de la data et d’une guerre informationnelle entre les États, l’UE a réalisé à quel point nous étions dépourvus d’outils technologiques et d’infrastructures adaptés. Ce soubresaut européen consistait à construire une vision alternative de la donnée, porteuse de sens – humainement et éthiquement –, et affirmant que la protection des droits fondamentaux devait faire partie de l’équation.

J’ai été séduite par ce positionnement différent, visant à rechercher un équilibre entre la protection de nos données personnelles, nos droits fondamentaux et l’innovation. Nous devons encourager une économie du discernement, en lieu et place d’une économie de la vraisemblance, en posant un regard critique sur les usages responsables des nouvelles technologies. Comment construire une vision de l’économie de la donnée qui ait du sens humainement et techniquement ? Comment imposer des règles du jeu loyales, éthiques et sûres ?

Notre seule boussole est l’Humain. L’indépendance de notre pensée ne doit jamais être étouffée par la technologie. Nous échangeons avec des chercheurs et des acteurs du numérique pour identifier ce qu’il peut apporter de positif en tant que fenêtre ouverte sur le monde, tout en conservant à l’esprit les droits fondamentaux et en étant réalistes sur le nécessaire maintien de la compétitivité. Où faut-il placer le curseur entre liberté, usages et protection ? Entre surveillance, sécurité et innovation ? Quels peuvent être les atouts des technologies numériques pour les territoires, quelle différenciation concurrentielle peuvent-elles favoriser ? Comment préserver l’autodétermination informationnelle ? L’indépendance de la pensée et des décisions doit rester au cœur des principes de technoréalisme.

Le thème de notre premier colloque, au Sénat en 2018, illustre l’importance de rester lucides dans notre rapport à la norme : « le RGPD ne va-t-il pas manquer sa cible ? ». Six ans plus tard, on constate que les gros opérateurs ont les moyens de se mettre en conformité pour capitaliser sur la donnée, la faire circuler et la valoriser, ce qui n’est pas forcément le cas de la majorité des structures de dimension plus traditionnelle (PME, TPE et ETI). La fracture numérique s’accélère et le contrôle des ressources numériques devient un enjeu géopolitique et stratégique majeur.

Ces dernières années ont vu l’émergence d’une techno-dépendance, d’une ère de post-humanité caractérisée par un réel faussé, la fabrication des consentements et la réduction au minimum des interactions entre individus. L’abondance promise par la technologie ne masque-t-elle pas des inégalités criantes et une dénaturation du réel ? Cette question était au cœur des épisodes du podcast de Data Ring, « Les Causeries Data », avec les sociologues Yann Ferguson et Antonio Casilli.

Ce dévoiement de la donnée appelle la vigilance des techno-lucides. Il nous faut revenir au cœur de l’ambition numérique, celle d’une augmentation et d’un enrichissement des interactions. Le numérique peut être un outil formidable, à condition d’adopter une approche constructive pour l’utiliser tout en maintenant notre libre arbitre et notre esprit critique. C’est aussi l’opportunité d’apprendre à mieux se connaître, de développer nos capacités réflexives, de travailler sur nos biais et préjugés, ainsi que sur les enjeux de soutenabilité et les défis environnementaux posés par l’accélération des besoins en puissance de calcul.

La data permet de briser des silos, elle offre un accès à la connaissance renforcé et facilité. Nous avons tout intérêt à jouer avec des technologies comme l’IA générative, par exemple en exprimant notre singularité dans la manière de poser des questions à la machine. Ce fourmillement d’innovation, au-delà des risques, est un moteur puissant d’accélération de la créativité – pour autant que l’on garde à l’esprit notre boussole humaniste.

La technologie est également un vecteur d’émotions, d’échanges, de solidarité en ligne. Dans les entreprises ou les collectivités, il peut être intéressant de mettre en place des espaces de réflexion et de discussion autour des usages pertinents. Il existe donc un rapport collectif au numérique qui présente de réels bénéfices. Mais pour garantir cette création de valeur, il faut conserver notre regard critique et comprendre précisément ce que les technologies peuvent, ou non, pour nous.

Dans le domaine éducatif, l’enjeu consiste à encadrer l’utilisation de la technologie avec des temps et des activités dédiés. Il s’agit aussi de développer l’apprentissage, dans le cadre scolaire, sur les biais cognitifs des individus, pour apprendre à « jouer » avec la machine. Nous savons raisonner, à la différence de la machine, et cette intelligence doit être mobilisée pour découvrir comment exploiter la technologie, en termes de perception, de raisonnement et d’action. Notre rapport croissant à la machine implique donc à la fois de mieux se connaître, et de comprendre les risques associés à ces nouvelles formes de création de valeur.

L’ambition est tracée : chercher à construire des savoirs communs et à les partager, en banalisant l’usage des technologies dans un cadre éthique, tout en préservant notre singularité. Faire sens, apprendre sur son propre comportement, gagner du temps sur des aspects non essentiels… Autant de nouveaux fondamentaux qui appellent la refonte du système de formation des enseignants, pour éviter une double posture extrême, celle de la diabolisation et celle de l’enthousiasme forcené.

Si le numérique éducatif n’est plus une option, et que l’usage de la technologie en salle de classe devient incontournable, il est essentiel de poser des garde-fous, comme des ateliers de sensibilisation proposés aux élèves, ou une véritable réflexion pédagogique sur la pertinence du recours aux outils numériques. Bref, de miser sur l’intelligence collective au lieu d’adopter un outil considéré comme omniscient.

Des métiers disparaîtront peut-être, par souci d’automatisation ou parce que l’automatisation offrira de meilleures garanties de sécurité et de productivité. La majorité des professions vont surtout utiliser de plus en plus les machines sans qu’elles ne puissent, à l’instar des IA génératives, distinguer le vrai du faux ou raisonner. Mais les systèmes algorithmiques ont une capacité à gérer l’infobésité, la masse de données, que notre cerveau n’a pas. En cela, ils offrent des possibilités incroyables. D’où l’importance de comprendre ce qu’elles peuvent pour nous.

Le terreau de culture – scientifique – doit venir de ceux qui manipulent l’IA. Il s’agit d’adopter une approche par les risques et de mettre en place des bonnes pratiques de mise en conformité, comme l’exposent les guides de la CNIL par exemple, et de coconstruire des usages éthiques et responsables pour rechercher de la valeur.

Le principal risque revient à déléguer par lassitude, paresse ou aveuglement, sa capacité de choisir à une intelligence artificielle, en se trompant sur sa nature profonde. Il est essentiel d’imposer une IA de confiance, quitte à perdre quelques points de croissance, afin de préserver la singularité et la créativité de l’Homme, et d’éviter ainsi son obsolescence. Nous ne devons pas devenir les outils de nos outils, piégés par la tentation de la gouvernementalité algorithmique.

La première étape consiste à former aux usages et aux mésusages, afin de prendre ce qu’il y a de meilleur dans la technologie, comme l’automatisation de process, et de libérer du temps pour réfléchir. L’enjeu est de parvenir à créer, au sein des entreprises et des organisations, des espaces pour échanger sur les usages et les questions éthiques et scientifiques que soulève l’IA.

L’esprit critique, c’est faire preuve de curiosité sans diaboliser la machine ou la mystifier. Nous avons tout à perdre à nous rendre dépendants des machines et, surtout, de monopoles capables de les concevoir et de les contrôler.

À l’inverse, nous avons tout à gagner à nous demander : que peut-on automatiser facilement, et quelles tâches l’IA ne peut-elle pas assumer ? Nous créons ces machines, à nous d’apprendre à les utiliser. L’intelligence humaine est profonde, incarnée, et repose sur nos capacités de perception, de raisonnement et d’action.

Au lieu de déléguer notre faculté de penser et de choisir, nous pouvons être en capacité de corriger les machines, de les contredire et de les compléter. Il faut traiter l’information de manière hybride, fonctionner en coopération avec les outils technologiques, apprendre à communiquer avec eux, à travailler avec eux.

C’est à cette condition que l’on pourra améliorer l’Humain, dans ce qu’il a de meilleur… L’enjeu des droits de l’homme numérique ne doit pas rester un angle mort du débat public. Il nous faut penser – et panser – le numérique avec le fair learning, ou apprentissage équitable, soit la conception d’algorithmes répondant à des normes éthiques.

Partager cet article
Un article de idruide publié le 11 Juin 2024
Remerciements & Crédits idruide remercie chaleureusement Mme France Charruyer. Journaliste : M. Gilles Marchand
La suite idruide Education permet
d’administrer, d’animer et de valoriser
vos parcs d’appareils mobiles

Faites bouger
les choses, rejoignez
la communauté We Move

Suivez l’actualité, recevez des invitations aux événements et aux versions bêta, participez à l’évolution des produits, accédez à notre veille technologique et à nos ressources documentaires…

Veuillez entrer une adresse email valide