Los trabajadores del gobierno están adoptando herramientas de IA para todo, desde la redacción de políticas hasta la respuesta a consultas ciudadanas. Las ganancias de eficiencia son reales. Pero cuando los servidores públicos se vuelven adictos de la IA, las implicaciones afectan la confianza pública, la responsabilidad democrática y la calidad de la gobernanza.

El riesgo único del sector público

Las decisiones gubernamentales afectan a millones de personas. Cuando esas decisiones son cada vez más moldeadas por la IA, surgen preguntas de responsabilidad: ¿quién es responsable cuando una política influenciada por IA falla? Cuando una respuesta gubernamental fue redactada por IA, ¿representa el criterio considerado de funcionarios electos y servidores públicos de carrera? La opacidad de la IA en la toma de decisiones gubernamentales socava la responsabilidad democrática.

Erosión del conocimiento institucional

Las agencias gubernamentales poseen décadas de conocimiento institucional: comprensión de precedentes, dinámicas con partes interesadas, contexto político y realidades de implementación. Cuando la IA se convierte en la herramienta predeterminada para el análisis de políticas y la comunicación, este conocimiento institucional puede no transmitirse a los nuevos empleados, que aprenden a usar IA en lugar de desarrollar una experiencia profunda en el área.

Construir un servicio público resiliente

Las agencias gubernamentales deberían desarrollar políticas de IA que aseguren que el criterio humano siga siendo central en las decisiones públicas, mantener programas de formación que desarrollen experiencia en el área independientemente de las herramientas de IA, establecer directrices claras sobre cuándo la participación de la IA es apropiada y cuándo el criterio humano debe prevalecer, y crear transparencia sobre el uso de IA en las comunicaciones y decisiones públicas.

Evalúe la dependencia de la IA en su organización. Nuestras herramientas apoyan la evaluación organizacional.