Intelligence artificielle : publication d’une charte d’utilisation de l’IA générative

Le 25 septembre 2025, la Direction des services administratifs et financiers (DSAF) du Premier ministre a publié une « Charte relative à l’utilisation de l’IA générative dans les services du Premier ministre »

Comme il est mentionné dans le document, « la présente charte vise à promouvoir une utilisation raisonnée et responsable de l’intelligence artificielle (IA) générative grand public au sein des services du Premier ministre (SPM) ». Il est également précisé qu’il s’agit d’une première étape avant le déploiement prochain d’IA souveraines pour les services de l’État.

Jusqu’à présent, les services étaient frileux. L’IA faisait peur et ne devait pas être utilisée à des fins professionnelles. Dans les services déconcentrés, il était demandé, de façon informelle, de créer des profils personnels, sans utilisation de son adresse professionnelle, pour utiliser les outils d’IA. Le risque était renvoyé, quant on sait que l’IA mémorise tout ce qu’on lui fournit, sans doute vers une faute de l’agent si une perte de confidentialité avait eu lieu.

Aujourd’hui son utilisation s’accélère et est déjà acceptée dans les services du Premier ministre ! De plus, depuis le 22 octobre 2025, 10 000 agents de 8 ministères peuvent tester l’Assistant IA, outil d’intelligence artificielle générative et “chatbot” boosté par l’entreprise française Mistral AI. Pendant 8 mois, ils pourront faire leurs retours pour faire évoluer cet outil et acter son déploiement l’année prochaine. (Source Acteurs publics L’État ouvre l’expérimentation de son Assistant IA à 10 000 agents publics – Acteurs Publics )

Cette charte précise bien quelques recommandations de bon sens, comme :

  • la neutralité : être sûr que la production de l’IA n’est pas source de discrimination
  • la transparence : le preneur de décision doit être informé que les informations fournies sont issues de l’IA
  • le respect de la confidentialité : n’utiliser aucune données confidentielles,
  • la responsabilité : l’agent qui utilise l’IA pour produire un document en reste responsable.
  • Etc..

Préciser systématiquement que le texte est issu de l’IA, vérifier ce qui est énoncé par l’IA… Bref, des recommandations qui seront bien vite oubliées car trop contraignantes.

Pour l’instant les utilisations possibles, selon cette charte sont : résumer/rédiger, générer des éléments visuels/sonores, rechercher et s’informer ainsi que traduire. Mais on se rend déjà bien compte que « rédiger »ouvre la porte à d’énormes possibilités…

Si vous avez eu la curiosité de discuter avec certaines AI (Meta AI de WhatsApp par exemple), vous vous êtes vite rendu compte qu’elle répond à toutes les questions même en ne connaissant pas la réponse. L’IA préfère donner une réponse fausse plutôt que de ne pas répondre ou de dire « je ne sais pas » ou a tendance à « broder ».

Cela ne présage rien de bon pour l’avenir de nos services. Une charte ne sera pas suffisante pour éviter les dérives et la facilité. Il est à craindre qu’en cas de mauvaise information, la faute soit rejetée sur le relecteur, quelle que soit la quantité d’information générée par l’automate et que les agents n’arriveront pas à suivre. De plus, le faux sera noyé dans beaucoup de vrai. Plus que jamais le diable sera dans les détails. Inversement, sur le « facile » la machine remplacera nécessairement, vu son rendement, les fonctionnaires, surtout ceux qui veulent faire « de la belle ouvrage ».

Mais si l’IA s’invite largement dans les services on y trouvera sûrement une opportunité de remplacer des fonctionnaires à bon compte.

Aux USA, elle est déjà utilisée pour les licenciements. Ainsi, le cabinet de conseil américain Accenture renvoie ses employés qui ne sont pas capables de se reconvertir dans le domaine de l’intelligence artificielle. (sources L’informaticien magazine-Accenture licencie ses employés pas adaptés à l’IA et Le Monde informatique : Faute de reconversion sur l’IA, des milliers de salariés d’Accenture licenciés – Le Monde Informatique )

Il faudra bien plus qu’une charte pour éviter les dérives. A quand un licenciement des fonctionnaires pour insuffisance professionnelle liée à l’IA ?

Sur le même sujet : https://www.syndicatnationalcftcministereagricultureetetablissements.fr/2025/05/12/serons-nous-remplaces-par-la-nouvelle-technique-du-xxieme-siecle-lia/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *