IA et usages : la confiance, pierre angulaire de son adoption durable
Une étude mondiale KPMG-Université de Melbourne révèle une adoption croissante de l'IA, mais pointe un manque de formation, une confiance encore limitée et la nécessité d'un cadre réglementaire renforcé. En France, malgré des usages en progression, les risques associés demeurent encore des freins importants notamment en entreprise. Détails.

Selon l'étude « Trust, attitudes and use of Artificial Intelligence : A global study 2025 », publiée le 30 avril, et réalisée par KPMG et l'Université de Melbourne auprès de 48 000 personnes dans 47 pays, l'intelligence artificielle est désormais utilisée régulièrement par 66 % des répondants. Son usage dépasse largement le cadre personnel. En effet, 73 % l'emploient dans un cadre professionnel et 92 % des étudiants y ont recours dans leurs études.
Cependant, seules 39 % des personnes interrogées ont reçu une formation à l'IA, et près de la moitié (48 %) en ont une connaissance limitée. L'écart est particulièrement frappant en France, où seuls 24 % des répondants se disent formés à l'IA, contre 50 % dans les économies émergentes.
La confiance dans l'IA : un défi mondial
Malgré sa diffusion rapide, la confiance dans l'IA reste fragile. À l'échelle mondiale, seuls 46 % des répondants affirment faire confiance aux systèmes d'IA, un chiffre qui tombe à 33 % en France. L'acceptation de l'IA suit la même tendance pour 61 % des Français interrogés l'acceptent, contre 72 % au niveau mondial.
La perception des risques l'emporte en France pour 41 % des répondants qui considèrent que les dangers liés à l'IA surpassent ses bénéfices, contre 33 % qui en perçoivent d'abord les avantages. À l'échelle mondiale, les proportions sont inversées.
L'usage en entreprise reste souvent opaque et peu encadré
Le cadre professionnel illustre les zones de flou persistantes autour de l'IA. En France, seuls 39 % des salariés déclarent adopter une posture critique vis-à-vis de l'IA et 45 % ne vérifient pas l'exactitude des contenus générés. Par ailleurs, 57 % préfèrent taire leur recours à l'IA et 53 % reconnaissent des usages inappropriés ou non conformes aux règles internes.
Ces pratiques révèlent une absence de gouvernance claire dans les organisations, la moitié des salariés dans les économies avancées affirment que leur entreprise ne dispose pas de mécanisme structuré pour encadrer l'usage de l'IA.
Une demande forte de régulation et d'encadrement
Face à ces constats, la demande de régulation est massive. 71 % des répondants dans le monde souhaitent un cadre réglementaire fort, que ce soit à l'échelle internationale (76 %) ou nationale (69 %). En France, 87 % souhaitent un encadrement spécifique contre la désinformation générée par l'IA, mais seuls 32 % jugent la réglementation actuelle suffisante.
Le besoin d'éducation et d'outils pour un usage responsable est également manifeste, tant dans les entreprises que dans les établissements d'enseignement. Seuls 52 % des étudiants utilisant l'IA s'engagent de manière critique et 81 % déclarent consacrer moins d'efforts à leurs travaux, se reposant sur ces outils.
Les économies émergentes en avance sur la confiance
L'étude montre une dynamique contrastée entre économies avancées et émergentes, alors que 85 % des salariés des pays émergents utilisent l'IA au travail, contre 67 % dans les pays développés. Ils sont également plus nombreux à se déclarer formés (50 % contre 39 %) et à juger leur usage de l'IA efficace (74 % contre 51 %).
Ce niveau d'appropriation plus élevé dans les économies émergentes pourrait leur offrir un avantage stratégique à long terme, en matière d'innovation, de productivité et de transformation économique.
Une responsabilité partagée pour construire une IA de confiance
Comme le souligne Damien Allo, associé chez KPMG France, « les organisations ont un rôle clé à jouer pour contribuer à la conception, l'usage et la diffusion d'une IA éthique et de confiance. Cela implique notamment la formation des talents, condition essentielle pour transformer nos modèles de manière durable ».
L'enjeu n'est plus seulement technologique, mais profondément organisationnel, éducatif et éthique. Pour les directions financières, l'IA offre des perspectives majeures d'optimisation, mais sa maîtrise et son encadrement conditionneront sa réelle valeur ajoutée à long terme.
Sur le même thème
Voir tous les articles Cyber & Climat