Intervention de Laurence Devillers

Réunion du jeudi 6 juillet 2023 à 9h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Laurence Devillers, professeur d'informatique appliquée aux sciences sociales :

. – Je vous remercie pour cette invitation. Je vais compléter les propos de Raja Chatila puisque nous avons travaillé ensemble sur ce rapport du Comité national pilote d'éthique du numérique, organisme pérennisé par le président de la République, Emmanuel Macron, au mois de mars. Un nouveau comité sera donc en place à partir de septembre.

La controverse sur l'intelligence artificielle se développe autour des craintes de perte d'emploi, de la machine qui devient superintelligente ou encore devant le fait qu'elle consomme une grande quantité d'énergie. Mais cette évolution permet aussi de découvrir de nouveaux vaccins ou de faire émerger des manières de mieux consommer. Nous sommes bien face à des tensions fondamentales, qu'elles soient éthiques ou anthropologiques, sur les connaissances.

Entre admiration et peur, le public et les décideurs comprennent mal ces nouvelles technologies. Or, il y a des menaces d'équilibre. Si demain nous allons vers une plus grande consommation de ces objets, notre société verra l'apparition de modèles complexes, tout en étant incapable de les remettre à jour, de les recréer, donc avec une perte de savoir-faire très forte. Nous sommes donc face à un problème d'éducation fondamental sur ces outils, pour disposer d'experts mais aussi pour former les citoyens à leur utilisation.

L'émergence de ChatGPT marque l'occasion de traiter enfin ces sujets au cœur de la société. Derrière ce constat, nous trouvons les géants du numérique et leur envie de prise de pouvoir, qui pose un problème géopolitique grave. En effet, nous sommes face à un système d'IA générative basé sur des modèles qui s'appuient sur des milliards de données, avec des hyperparamètres peu transparents. L'opacité des modèles est totale et doit être régulée. L'intérêt du système Bloom est qu'il propose un modèle open, qui peut être testé. Mais les autres systèmes sont très opaques, ce qui entraîne par exemple qu'une même question peut engendrer en réponse deux phrases différentes. Ce facteur température implique en effet que le système ne répond pas avec la réponse la plus probable mais avec la première séquence de mots repérée.

Par ailleurs, fondamentalement, ces systèmes sont créés sur une hypothèse linguistique : les tokens, qui ne sont même pas des mots mais un ensemble de caractères, des vecteurs contenants. Les entités tokens tendent donc à avoir des sens similaires dans des conditions similaires. Ce principe amène à avoir des vaches qui pondent des œufs... selon l'exemple bien connu. La machine ne produit que des statistiques liées à des contextes. Mais des comportements émergents peuvent également apparaître dans certains contextes, lors d'une requête affinée. L'utilisateur pourrait croire ici que la machine s'adapte à lui mais le processus ne relève pas de l'humain, ce que nous pouvons avoir du mal à distinguer.

Il est donc essentiel que ces capacités soient plus ouvertes. L'apprentissage de ces machines diffère d'un apprentissage humain tel que peut le vivre un enfant. ChatGPT propose ainsi plusieurs types d'apprentissage : l'auto-apprentissage (produire le mot le plus probable derrière une séquence de mots) ou le manque (un mot de la phrase est enlevé et le système cherche à le prédire). Ces systèmes montrent des qualités mais sans abstraction ni raisonnement humain. Nous les humanisons à défaut. Dans l'éducation, il est urgent de démystifier ce que nous percevons de la machine pour ne pas créer une société de dépendance.

Il est important de rappeler également que les données de ces modèles sont principalement anglo-saxonnes et à plus de 80 % en anglais. Nous devons alors nous interroger sur l'influence d'une langue sur une autre, ce que nous ne pouvons pas appréhender du point de vue de la recherche. Nous connaissons cette influence mais nous ne pouvons pas la mesurer, donc la maîtriser. Le citoyen ne comprend alors pas ce qui survient et la machine peut de son côté devenir totalement incohérente. Elle peut se comporter à la manière d'un humain mais sans conscience ni émotion. Sur ce sujet du multilinguisme et du traitement automatique de la langue, je vous indique qu'un important projet est en cours d'élaboration avec le ministère de la Culture au sein de la Cité internationale de la langue française de Villers-Cotterêts.

La première préconisation de notre rapport repose donc sur le besoin d'une entité souveraine pour travailler sur ces sujets qui arrivent trop vite dans la société et pour lesquels les GAFAM ne sont pas capables d'apporter des solutions. Nous sommes face à des objets qui bénéficient d'une certaine autonomie.

Il faut ainsi travailler à la fois sur une loi et sur les normes européennes dès aujourd'hui car il y a une prise de pouvoir extrêmement rapide qui s'opère en parallèle. Il importe d'œuvrer pour l'avenir des citoyens.

Ce bouleversement est énorme dans le monde du travail et il nous faut l'anticiper, ce qu'a peu abordé notre concertation. Par exemple, aider un enseignant à voir qu'un travail est le résultat de différents apports peut se révéler utile.

Nous devons donc aller beaucoup plus loin sur la compréhension de ces systèmes et nous devons impérativement pouvoir dialoguer avec les GAFAM. Une mise à disposition des bonnes pratiques est également indispensable, dans un souci de mutualisation. Nous devons associer les bonnes et les mauvaises pratiques entre entreprises, par exemple dans le domaine médical. Les États-Unis prennent le leadership très rapidement et il nous revient d'éclairer les pièges réels de ces intelligences artificielles génératives. Je vous recommande à ce sujet le film documentaire Derrière les écrans de fumée proposé par des « repentis » des GAFAM qui expliquent les politiques de manipulation mises en œuvre et le profil de cobayes que les utilisateurs endossent en utilisant des produits comme ChatGPT.

Nous pouvons donc conclure en rappelant qu'un effort de guerre est nécessaire et j'espère que l'Office pourra en être l'un des vecteurs. Il se pourrait qu'à court terme les normes pour le marché européen soient élaborées par les Etats-Unis et la Chine…

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion