L’Union européenne et Google se penchent sur l’encadrement de l’intelligence artificielle, en attendant la loi

Le commissaire européen pour le Numérique, Thierry Breton, et le patron de Google, Sundar Pichai, se sont accordés ce mercredi 24 mai pour travailler sur des règles afin d’encadrer l’intelligence artificielle (IA) avec les entreprises volontaires, dans l’attente d’une nouvelle législation dans l’UE.

Par

Le patron de Google, Sundar Pichai. Crédit: AFP

Nous nous sommes mis d’accord sur le fait que nous ne pouvons pas nous permettre d’attendre que la législation sur l’IA soit applicable, et pour travailler ensemble avec tous les développeurs d’IA pour mettre en place un pacte sur une base volontaire”, a déclaré Thierry Breton après une rencontre avec Sundar Pichai à Bruxelles.

L’Union européenne (UE) veut être la première au monde à se doter d’un cadre juridique complet pour limiter les dérives de l’intelligence artificielle.

Bruxelles a proposé il y a deux ans un projet de règlement ambitieux, mais son examen par les États membres et le Parlement européen traîne en longueur. Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur “au plus tôt fin 2025”, a expliqué Thierry Breton à l’AFP.

D’une grande complexité technique, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent. Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger des dissertations originales, des poèmes ou des traductions en quelques secondes.

Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d’applications comme Midjourney, a alerté sur les risques de manipulation de l’opinion.

à lire aussi

La future législation européenne s’inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises.

Le cœur du projet consiste en une liste de règles imposées aux seules applications jugées à “haut risque” par les entreprises elles-mêmes à partir des critères du législateur. Pour l’exécutif européen, il s’agirait de tous les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations.

“Beaucoup de choses peuvent être mises en œuvre sans passer par la loi”

Thierry Breton, UE

Parmi les obligations : prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. La proposition de la Commission, dévoilée en avril 2021, prévoit aussi un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement.

Beaucoup de choses peuvent être mises en œuvre sans passer par la loi”, a expliqué Thierry Breton, souhaitant travailler avec tous “les grands acteurs européens et non européens” qui le souhaitent pour aboutir à une régulation “avant qu’elle ne devienne contraignante par la loi”.

Cette régulation anticiperait des éléments du projet européen “et peut-être d’autres éléments, s’ils ont d’autres idées pour renforcer la protection”, a expliqué le commissaire.

Il a par ailleurs alerté le patron de Google sur des “problèmes” constatés avec sa filiale YouTube qui diffuserait de la désinformation pro-russe, posant un risque de manipulation des élections en Europe. Thierry Breton s’est félicité de l’engagement de Sundar Pichai à “intensifier la lutte contre la désinformation”.