De fausses notes de frais générées par IA ?
Si la réalité de la pratique reste à prouver, les éditeurs de logiciels s’engouffrent dans la brèche.
Des factures générées avec ChatGPT
Tout a commencé avec l’introduction d’un nouveau moteur de génération d’image au sein de ChatGPT 4o. Comme le souligne TechCrunch, l’outil est capable de créer facilement des images de reçus ou des factures. Des visuels suffisamment réalistes pour tromper un utilisateur peu attentif. Plusieurs internautes ont publié sur les réseaux sociaux des exemples de ce type d’image.
Celles-ci présentent des particularités qui permettent d’identifier leur caractère synthétique, par exemple des erreurs typographiques ou mathématiques dans les montants affichés.
Mais rien qui ne puisse être corrigé par un humain à l’aide d’un logiciel de retouche photo ou en affinant les instructions envoyées au modèle.
Tout le monde veut vendre des détecteurs
Pour faire face à ce risque, les éditeurs de logiciels de comptabilité dévoilent donc leurs outils de détection. L’éditeur français N2EJSoft, qui développe le logiciel de notes de frais N2F, compte ainsi sur l’intégration d’un module basé sur l’intelligence artificielle afin de détecter les fausses notes de frais s’appuyant sur des documents falsifiés.
La solution proposée vise vertes à détecter les faux documents. Mais surtout à détecter rapidement une dépense qui ne correspond pas à la politique de frais. L’idée est d’attribuer à chaque dépense une note de fiabilité afin de pouvoir prioriser les contrôles.
Et N2EJSoft n’est pas tout seul. D’autres éditeurs convertissent en opportunité cette actualité liées au nouveau moteur de génération d’image de ChatGPT. C’est par exemple le cas de la société Dext, qui édite des logiciels de comptabilité. Dext a présenté début avril sa solution de détection des images synthétiques destinée à limiter les fraudes. Mais là aussi, il s’agit de proposer un module dédié à la détection d’image synthétique en complément d’outils plus traditionnels de détection des fraudes basés sur l’identification de comportements anormaux.
Efficacité à prouver
L’enjeu de la détection des images synthétiques est de plus en plus essentiel à mesure que ces outils se démocratisent. Mais reste un défi de taille : les techniques employés pour identifier ce type d’image sont rapidement obsolètes et sont fréquemment mises en défaut par les chercheurs qui tentent d’éprouver leur fiabilité.
Pour résoudre le problème, les grands fournisseurs de modèles de génération d’image comme OpenAI ou Google, ont accepté de mettre en place des solutions de watermarks et une codification particulière des métadonnées des images générées, afin de faciliter leur détection. Ces solutions se développent depuis plusieurs années mais présentent là aussi des faiblesses et des limites difficiles à dépasser. Il n’y a donc pas de solution magique pour détecter les contenus générés par intelligence artificielle. Mais ça n’empêchera jamais les éditeurs de vous en vendre.