Les agents de la fonction publique adoptent des outils d'IA pour tout, de la rédaction de politiques aux réponses aux demandes des citoyens. Les gains d'efficacité sont réels. Mais quand les fonctionnaires deviennent dépendants de l'IA, les implications touchent la confiance du public, la responsabilité démocratique et la qualité de la gouvernance.
Le risque unique du secteur public
Les décisions gouvernementales affectent des millions de personnes. Quand ces décisions sont de plus en plus façonnées par l'IA, des questions de responsabilité se posent : qui est responsable quand une politique influencée par l'IA échoue ? Quand une réponse gouvernementale a été rédigée par l'IA, représente-t-elle le jugement réfléchi des élus et des fonctionnaires de carrière ? L'opacité de l'IA dans la prise de décision gouvernementale sape la responsabilité démocratique.
Érosion du savoir institutionnel
Les administrations publiques détiennent des décennies de savoir institutionnel — compréhension des précédents, des dynamiques entre parties prenantes, du contexte politique et des réalités de mise en œuvre. Quand l'IA devient l'outil par défaut pour l'analyse des politiques et la communication, ce savoir institutionnel risque de ne pas être transmis aux nouveaux agents, qui apprennent à utiliser l'IA plutôt qu'à développer une expertise approfondie du domaine.
Construire un service public résilient
Les administrations publiques devraient développer des politiques d'IA qui garantissent que le jugement humain reste central dans les décisions publiques, maintenir des programmes de formation qui développent l'expertise du domaine indépendamment des outils d'IA, établir des lignes directrices claires sur les cas où la contribution de l'IA est appropriée et ceux où le jugement humain doit prévaloir, et créer de la transparence sur l'usage de l'IA dans les communications et décisions publiques.
Évaluez la addiction à l'IA dans votre organisation. Nos outils accompagnent l'évaluation organisationnelle.