Au Conseil de l’Europe, Seghrouchni souligne l’importance d’intégrer les dimensions cognitives et perceptives dans l’évaluation de l’IA

La ministre déléguée chargée de la Transition numérique et de la Réforme de l’Administration, Amal El Fallah Seghrouchni, a souligné, mardi à Paris, l’importance d’intégrer les dimensions cognitives et perceptives dans l’évaluation des technologies de l’intelligence artificielle (IA).

Par

Amal El Fallah Seghrouchni. Crédit: Amal El Fallah Seghrouchni / Facebook

Cette intégration permettra de “mieux encadrer les technologies de l’IA et de protéger durablement la liberté d’expression et la formation du jugement dans nos démocraties”, a affirmé la ministre lors de la 3e réunion du Comité d’experts sur les implications de l’intelligence artificielle générative pour la liberté d’expression (MSI-AI) du Conseil de l’Europe.

Partageant une réflexion sur les transformations invisibles à l’œuvre dans nos sociétés sous l’effet de l’IA générative, Seghrouchni a relevé que si certains impacts de l’IA sont mesurables, d’autres — notamment cognitifs et perceptifs — le sont beaucoup moins.

L’un des enjeux majeurs, a-t-elle expliqué, réside dans la capacité de ces technologies à renforcer des mécanismes d’influence subtils, tels que le nudging, à travers la voix, les expressions faciales ou l’interaction affective simulée.

à lire aussi

Précisant que l’IA générative ne se contente pas de produire du contenu, mais qu’elle amplifie notre perception du monde et modifie notre manière d’y réagir, la ministre a évoqué comme exemple la création d’un lien affectif entre un adulte et un robot à l’apparence enfantine en moins de 30 minutes, notant que ce type d’interaction illustre combien l’attachement, la perception, voire les comportements peuvent être influencés rapidement, sans que les utilisateurs en aient conscience.

Elle a à cet effet interrogé la capacité des sociétés à évaluer ces effets, notamment sur les publics les plus vulnérables : enfants, personnes en situation de handicap, ou encore citoyens dans des contextes de fragilité cognitive. Une fois la mentalité modifiée par ces technologies, est-il possible de revenir en arrière ? Peut-on imaginer une forme de “désintoxication cognitive” à l’IA générative ? s’est-elle demandé.

Cette intervention s’inscrit dans un cadre éthique et juridique en évolution, alors que certains pays ont reconnu dès 2020 des droits cognitifs, ouvrant un nouveau champ de réflexion sur les libertés fondamentales à l’ère algorithmique.

Le Comité d’experts sur l’impact de l’intelligence artificielle générative sur la liberté d’expression (MSI-AI) a tenu sa première réunion en avril dernier à Strasbourg. Il est chargé de rédiger un projet de lignes directrices sur les implications de l’intelligence artificielle générative pour la liberté d’expression, d’ici fin 2025.

(avec MAP)