Recherche

Fraude aux notes de frais : quand ChatGPT devient l'outil préféré des tricheurs

L'essor de l'intelligence artificielle offre des gains de productivité considérables... mais ouvre aussi la porte à de nouvelles formes de fraude. Dernier exemple en date : l'utilisation du générateur d'images de ChatGPT pour produire des faux reçus plus vrais que nature, utilisés pour truquer des notes de frais. Un signal d'alarme pour les DAF, à l'heure où les directions financières peinent encore à digitaliser efficacement leurs processus de contrôle.

Publié par le | mis à jour à
Lecture
4 min
  • Imprimer
Fraude aux notes de frais : quand ChatGPT devient l'outil préféré des tricheurs
© Rawpixel / Freepik
Getting your Trinity Audio player ready...

L'alerte vient de plusieurs expérimentations relayées sur les réseaux sociaux et confirmées par le site TechCrunch. Des utilisateurs ont testé la capacité de l'outil de génération d'images de ChatGPT à produire ou modifier des notes de frais de restaurant, des tickets de caisse falsifiés, modifiant au besoin les dates, les montants, ou les noms d'établissement. Un cauchemar pour les directions financières d'entreprise.

Supercherie dévoilée de ChatGPT

Plusieurs enquêtes dans la presse (Le Parisien, Sud-ouest, etc.) alertent sur les dérives du nouveau générateur d'images de ChatGPT, depuis le début du mois d'avril 2025. En effet, la nouvelle version du générateur d'images d'OpenIA est détourné dans la manipulation des photos et donc des documents papier scannés. Des journalistes ont réalisé des tests de faux reçus et partagé de fausses notes de frais, qui ont généré parfois des milliers de vues. Non seulement l'outil IA peut créer de toutes pièces une facture de restauration, mais il est performant pour reprendre de vraies factures et en modifier la date et les prix. Une pratique qui peut servir à frauder, notamment en se faisant rembourser des dépenses fictives.

Le test mené par Raphael Chenol, directeur Digital Learning au Ynov Campus, est sans équivoque : une image de ticket de restaurant modifiée par IA, soumise à une application de gestion de notes de frais, passe le filtre de contrôle sans difficulté. « Cela ne prend que quelques secondes, là où il fallait autrefois maîtriser Photoshop », explique-t-il. Son post (ci-dessous) a généré des milliers de vues sur LinkedIn.

Linkedin Lars Machenil

Source : Post Linkedin de Raphael Chenol

Une fraude indétectable à l'oeil nu

Ce qui frappe dans ces exemples, c'est le réalisme bluffant des faux reçus générés. Dans l'un d'eux, une addition du restaurant Epic Steak est fabriquée de toutes pièces, avec prix cohérents, police conforme et mise en page crédible. Certains vont jusqu'à ajouter des tâches de boisson ou de nourriture pour imiter l'usure naturelle d'un ticket.

Ces pratiques exploitent une faille majeure : l'absence de contrôle automatisé du contenu visuel dans de nombreux systèmes de gestion des dépenses. Si les outils de saisie numérique savent reconnaître des chiffres, ils ne savent pas encore en vérifier l'authenticité.

Un nouveau défi pour les directions financières

Pour les DAF, cette évolution soulève plusieurs enjeux. Un renforcement des contrôles des outils d'IA générative contourne les vérifications classiques. Il devient urgent d'intégrer des solutions de vérification sémantique et d'analyse d'image capables de détecter les anomalies.

Un sensibilisation en interne est primordiale. Un simple collaborateur malveillant peut désormais produire un faux justificatif sans compétence technique. Une charte éthique sur l'usage de l'IA en entreprise s'impose.

Du côté de l'audit et de la conformité, il faut se prémunir. En cas de contrôle fiscal ou d'audit interne, la présentation de pièces falsifiées, même non intentionnelle, peut avoir des conséquences juridiques lourdes.

OpenAI face à ses responsabilités

Interrogée sur ces usages détournés, une porte-parole d'OpenAI rappelle que ses outils sont conçus pour encourager la liberté créative, notamment dans l'éducation ou la publicité. Mais la politique de l'entreprise interdit explicitement les utilisations frauduleuses comme la falsification de documents.

Cet épisode montre à quel point les cas d'usage de l'IA dépassent désormais le cadre des intentions initiales. Même si OpenAI ne soutient pas ces dérives, les outils qu'elle met à disposition peuvent servir à la fraude en entreprise à grande échelle.

Vers un contrôle intelligent des justificatifs

L'affaire des faux reçus générés par IA n'est probablement qu'un avant-goût des risques à venir pour les directions financières. Face à ces outils toujours plus puissants, l'automatisation du contrôle interne ne suffit plus : il faut repenser la validation documentaire, en intégrant l'IA non seulement pour produire, mais aussi pour vérifier.

En parallèle, une politique de tolérance zéro et une traçabilité renforcée des justificatifs apparaissent comme des piliers incontournables pour protéger l'entreprise. Car si l'IA peut booster la productivité, elle peut aussi, entre de mauvaises mains, devenir un redoutable outil de fraude.

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Retour haut de page