Les gens adoptent l’IA générative pour créer et éditer des images, des vidéos et du son de manière à stimuler la créativité, la productivité et l’apprentissage, le contenu audiovisuel généré devenant de plus en plus courant”, indique la société, expliquant que l’arrivée du logiciel DALL-E3 (un programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles) a rendu la différenciation des images synthétiques de plus en plus difficiles.
La start-up à l’origine des célèbres outils d’IA générative ChatGPT et DALLE-E a annoncé, dans son blog post, le lancement d’un outil capable de détecter si une image a été créée en utilisant son générateur d’image DALLE-E3.
“Nous introduisons de nouveaux outils pour aider les chercheurs à étudier l’authenticité du contenu”, écrit la start-up après avoir réalisé des tests en interne sur une version antérieure de l’outil.
Selon la société, l’outil identifiait correctement les images créées par DALL-E 3 dans environ 98% des cas lors de tests internes et pouvait gérer des modifications courantes telles que la compression, le recadrage et les changements de saturation avec un impact minimal.
La start-up OpenAI a emboîté le pas aux géants de la technologie Meta et Google en rejoignant la C2PA, une coalition permettant de vérifier la provenance et l’authenticité des contenus.
(avec MAP)