Navegue a una sección detallada desde la página principal.

Gobernanza algorítmica y transformación del Estado

Análisis crítico sobre la reconfiguración del servidor público en la era de la inteligencia artificial

Escuchar Podcast

Audio generado con NotebookLM, asistido por IA, bajo las ideas y supervisión del ponente.

Desafíos y Soluciones con IA

Una iniciativa del Grupo SolvIA para transformar la gestión pública, demostrando cómo la IA puede resolver problemas estructurales de forma eficiente y justa.

Seis tensiones fundamentales

Desafíos estructurales en la implementación de inteligencia artificial gubernamental. Haga clic en una tarjeta para explorar el análisis detallado de cada tensión.

Referencias y bibliografía

Una selección de recursos clave que fundamentan este análisis, desde el marco normativo colombiano hasta la sociología crítica de la tecnología.

Colonialismo digital y sesgos en IA: una realidad colombiana

¿Por qué ChatGPT no entiende el contexto colombiano y cómo adaptar la IA para servir a nuestra población?

Decisiones inadecuadas para el contexto

Una IA que no entiende el contexto colombiano es una IA que ignora las realidades de los 105 pueblos indígenas del país, que constituyen el 4.4% de nuestra población.

Exclusión de poblaciones vulnerables

Algoritmos entrenados con datos anglosajones discriminan sistemáticamente a comunidades indígenas, afro y campesinas.

Perpetuación de desigualdades

Sin corrección consciente, la IA amplifica brechas existentes entre centro y periferia, entre urbano y rural, y entre ricos y pobres.

El problema:

Colonialismo cognitivo digital: las IA que usamos fueron entrenadas predominantemente con datos del Norte Global. Cifras de 2025 muestran que cerca del 50% del contenido web está en inglés, mientras que solo el 6% está en español, una disparidad que codifica una visión del mundo anglocéntrica en los algoritmos.

Origen de los datos

60% de internet es en inglés, 0.7% en español colombiano. Wikipedia sesgada: 80% editores son hombres blancos del Norte. Journals en inglés, perspectiva occidental.

Desarrollo tecnológico

IA hecha en Silicon Valley (OpenAI, Google, Meta). Equipos homogéneos sin latinoamericanos en decisiones clave. Prioridades comerciales: mercados ricos primero.

Adopción acrítica

Mentalidad colonial ("si es gringo es mejor"). Copy-paste de soluciones extranjeras sin adaptación local. No vemos los sesgos hasta el daño.

✅ Prompt soberano vs. ❌ prompt ingenuo

❌ Prompt ingenuo (acrítico)
"Diseñar un programa de seguridad alimentaria para la primera infancia en Colombia."
✅ Prompt contextualizado (soberano)
"Diseñar un programa de seguridad alimentaria para la primera infancia en La Guajira, Colombia, considerando: 1) Datos de desnutrición del INS. 2) Cultura Wayúu. 3) Escasez hídrica. 4) Logística en zonas sin vías pavimentadas..."

¡Recuperemos nuestra soberanía cognitiva!

Cada vez que usas IA sin contexto colombiano, sin enfoque diferencial, sin cuestionar sus supuestos occidentales, estás perpetuando 500 años de colonialismo, ahora en versión digital. La descolonización digital empieza con cada prompt que escribes.

Uso responsable de IA generativa en el sector público

Guía para servidores públicos sobre el manejo seguro de datos en herramientas de IA

Sanciones disciplinarias y penales

Procesos disciplinarios, destitución, inhabilidad. Posibles denuncias penales por violación de datos.

Pérdida de información estratégica

Datos sensibles del Estado quedan en servidores extranjeros. Pérdida de confidencialidad en procesos críticos.

Violación de derechos ciudadanos

Exposición de datos médicos, financieros o judiciales. Violación del Habeas Data constitucional.

El problema:

Servidores públicos copian y pegan información sensible de ciudadanos y del Estado directamente en IA públicas sin ningún filtro de seguridad o anonimización. Esta práctica se enmarca en el "capitalismo de vigilancia" de Shoshana Zuboff, donde la experiencia humana es expropiada como materia prima para generar predicciones de comportamiento.

Desconocimiento

No saben que es peligroso, creen que es privado, no entienden cómo funciona.

Presión laboral

Necesitan respuestas rápidas, no hay herramientas oficiales, "todos lo hacen".

Falta de controles

No hay políticas claras, sin herramientas seguras, capacitación inexistente.

Escenarios de alto riesgo en la práctica actual

Gestión disciplinaria: Un abogado de control interno carga un expediente completo en una IA pública pidiendo: "Resume este proceso disciplinario contra Juan Pérez, C.C. 80.123.456, y redacta un borrador de pliego de cargos."
Análisis de salud pública: Un epidemiólogo ingresa una base de datos de pacientes con sus nombres, cédulas y diagnósticos de VIH, solicitando: "Identifica patrones y factores de riesgo en esta cohorte de pacientes."
Fiscalización tributaria: Un equipo de hacienda introduce una lista de contribuyentes morosos con datos de contacto y matrículas inmobiliarias, pidiendo: "Genera un guion de cobro persuasivo para cada deudor de esta lista."

¡La protección de datos es su responsabilidad!

Este riesgo ya ha sido reconocido por la Corte Constitucional en su Sentencia T-323 de 2024, que impone a los funcionarios públicos un estrito deber de custodia y prohíbe la transferencia de datos sensibles a sistemas de IA externos no autorizados, reforzando los principios de la Ley 1581. Recuerde: Copiar datos de ciudadanos en ChatGPT o Claude puede resultar en procesos disciplinarios, penales y multas millonarias. ¡NO LO HAGA!

Revisión humana obligatoria en decisiones con IA

Por qué ninguna decisión del Estado puede tomarse únicamente con IA sin validación de un servidor público responsable

Violación de derechos fundamentales

Negación automática de subsidios, pensiones o servicios de salud por errores de IA. Discriminación algorítmica.

Responsabilidad legal difusa

¿Quién responde cuando la IA se equivoca? Sin un humano responsable, las víctimas quedan sin recurso legal.

Pérdida de legitimidad del Estado

Ciudadanos pierden confianza en un gobierno que delega decisiones críticas a máquinas sin supervisión humana.

El problema:

Funcionarios públicos están tomando decisiones que afectan derechos ciudadanos basándose únicamente en lo que dice una IA, sin aplicar criterio profesional ni asumir responsabilidad sobre los resultados. Esta delegación ciega convierte a los algoritmos opacos y no regulados en lo que Cathy O'Neil denomina "armas de destrucción matemática" (WMD), que amplifican la desigualdad y causan daño a escala.

Confianza ciega

"La IA es más inteligente", desconocimiento de limitaciones, fascinación tecnológica.

Presión operativa

Sobrecarga de trabajo, falta de personal, métricas de velocidad.

Vacío normativo

Sin protocolos claros, responsabilidad indefinida, ausencia de controles.

Principio rector: Soberanía decisional humana

"La IA propone, el humano dispone y responde". Ningún acto administrativo que cree, modifique o extinga una situación jurídica de un ciudadano puede fundamentarse exclusivamente en un sistema de IA. Debe existir siempre la validación, firma y responsabilidad de un servidor público competente.

¡La IA es herramienta, no jefe!

Recuerde: Firmar "porque lo dijo la IA" es causal de responsabilidad disciplinaria, fiscal y hasta penal. La IA no tiene cédula ni puede ir a juicio. USTED SÍ.

Del estigma a la excelencia: uso transparente de IA

Por qué esconder el uso de IA nos hace más débiles y por qué los ciudadanos exigirán su uso responsable

Desperdicio de potencial

Por miedo al "qué dirán", funcionarios trabajan 10x más lento. Se pierden oportunidades de mejorar servicios.

Uso irresponsable y sin control

Al ser tabú, se usa a escondidas sin supervisión, sin validación, sin criterio. Errores graves pasan desapercibidos.

Pérdida de competitividad

Mientras Colombia se avergüenza de usar IA, otros países la integran abiertamente. Nos quedamos atrás.

El problema:

Existe un estigma tóxico que castiga el uso transparente de IA ("eso no es suyo, no tiene mérito"), obligando a funcionarios a usarla a escondidas, sin formación, sin criterio y sin poder aprovechar su potencial.

Mentalidad anticuada

"El trabajo manual es honesto", confusión mérito vs herramienta, romanticización del pasado.

Miedos y desconocimiento

Miedo a ser reemplazado, no saber usarla bien, creer que es "hacer trampa".

Cultura organizacional

Jefes que no entienden, evaluación por horas no por resultados, chismes y señalamientos.

❌ Realidad actual (cultura de opacidad)

Prácticas defensivas: Ocultar el uso de la herramienta, parafrasear artificialmente y disimular ganancias de tiempo para ajustarse a expectativas obsoletas.

✅ Futuro deseado (cultura de transparencia)

Práctica de integridad: "Este documento fue elaborado con asistencia de IA (Prompt:...) y validado por [Nombre]". El mérito reside en el juicio crítico aplicado al resultado.

¡Es hora de salir del clóset digital!

En 5 años, no usar IA será como no usar un computador hoy. Los que no sepan usarla serán obsoletos. Los que la dominen serán los líderes del servicio público moderno. ¿De qué lado quiere estar?

La verdad incómoda: IA y el futuro del empleo público

Por qué "esta vez es diferente" y la reconversión de competencias no es opcional, es supervivencia

Obsolescencia masiva de funcionarios

Miles de servidores públicos sin competencias relevantes, imposibles de reubicar, con costos laborales insostenibles.

Colapso presupuestal

Pagar salarios por trabajos que una IA hace casi gratis mientras ciudadanos exigen más servicios con menos impuestos.

Parálisis del Estado

Funcionarios temerosos saboteando modernización, resistencia pasiva a la IA, ciudadanos frustrados con servicios del siglo XX.

El problema:

Esta vez sí es diferente: estudios de la OCDE, el Foro Económico Mundial y Brookings Institution sugieren que, si bien no se espera una eliminación neta masiva de empleos públicos, sí se prevé que entre un 30% y un 70% de las tareas actuales serán automatizadas. Esto generará una crisis de obsolescencia funcional si los roles no se redefinen hacia competencias de mayor valor humano.

Naturaleza de la IA

IA hace trabajo cognitivo, velocidad exponencial, costo marginal cero.

Presión social

Ciudadanos digitales exigentes, crisis fiscal permanente, comparación global.

Inercia institucional

Negación del problema, carrera administrativa rígida, sin presupuesto para formación.

Competencias humanas de alto valor

  • Validación epistémica: Discernir la veracidad y el rigor de los resultados algorítmicos.
  • Auditoría de sesgos: Identificar y mitigar la discriminación algorítmica.
  • Inteligencia emocional y social: Gestionar la complejidad humana (negociación, empatía).
  • Juicio ético aplicado: Deliberar sobre dilemas morales y salvaguardar la dignidad humana.

Rutas de transformación de roles

  • De digitador a: Curador de datos y gestor de calidad de la información.
  • De analista de datos a: Auditor de algoritmos y especialista en explicabilidad (XAI).
  • De abogado proyectista a: Diseñador de políticas públicas adaptativas y prompt engineer legal.
  • De supervisor de procesos a: Orquestador de ecosistemas humano-IA.

El futuro no espera: reconversión o extinción

Decisión crítica: Puede ser víctima del cambio o protagonista de la transformación. Puede aferrarse a un puesto que desaparecerá o reinventarse para un rol que aún no existe. Elija sabiamente. Elija YA.

Vectores de riesgo sistémico

Diez problemas críticos adicionales en la implementación de IA en el sector público

1

Amnesia institucional

Cada gobierno borra los sistemas del anterior y empieza de cero.

2

Apartheid digital

Exclusión sistemática de quien no puede o sabe usar la tecnología.

3

Corrupción 4.0

Algoritmos diseñados para favorecer contratistas sin dejar rastro.

4

Fetiche de las métricas

Obsesión con KPIs que invisibilizan realidades complejas.

5

Dependencia tecnológica

El Estado depende 100% de IA extranjera que puede desaparecer.

6

Derecho a la desconexión

¿Puede un ciudadano negarse a ser procesado por una IA?

7

IA como excusa política

"El algoritmo lo decidió" para evadir la responsabilidad.

8

Tramitomanía algorítmica

Digitalizar la burocracia sin simplificar los procesos.

9

IA como arma geopolítica

La soberanía digital amenazada por el control extranjero.

10

Costos ocultos y sostenibilidad

La burbuja económica y ambiental detrás de la IA.

Desafío 1: Inconsistencia crítica en datos de empleo

Pérdida de confianza

Baja fiabilidad en los reportes del sistema.

Planificación deficiente

Dificultad para planificar procesos de selección.

Alta litigiosidad

Aumento de reclamaciones y tutelas por datos inconsistentes.

El problema:

La información de los Manuales Específicos de Funciones y Competencias Laborales (MEFCL) y la Oferta Pública de Empleos de Carrera (OPEC) no coincide.

Silos de información

Sistemas con datos no estandarizados.

Procesos manuales

Carga de datos propensa a errores humanos.

Falta de validación

Sin validación cruzada en tiempo real.

Entidades

Manuales actualizados

Recomendaciones de IA para ajustar y modernizar los MEFCL.

Aspirantes

Información transparente

Ofertas de empleo (OPEC) consistentes y confiables.

CNSC

Confianza legítima

Aumento de la credibilidad y confianza en el sistema SIMO.

SOLUCIÓN:Sincron-IA

Evalúa y ajusta los MEFCL con IA, y garantiza su perfecta sincronización con la OPEC para una total integridad de datos.

Estandarizar datos

Definir un modelo de datos único y obligatorio.

ExcelJSON Schema

Automatizar validación

Usar IA para validar y reconciliar datos al instante.

PythonRoBERTa

Evolución del rol humano

El servidor pasa de digitar a supervisar estratégicamente la IA.

PromtingEtic

Desafío 2: Asignación subjetiva de plazas de inclusión

Desigualdad

Menores oportunidades para personas con discapacidad.

Riesgo legal

Exposición a demandas por discriminación.

Incumplimiento de metas

No se alcanzan los objetivos de inclusión.

El problema:

El Jefe de Talento Humano debe decidir cuáles empleos reservar para PcD (Ley 2418/24) basándose en su interpretación, sin un estándar técnico.

Falta de criterios técnicos

La decisión depende de la interpretación subjetiva, en lugar de un método estandarizado que cruce las funciones del cargo con las adaptaciones que requiere una discapacidad.

Ambigüedad normativa

La ley no especifica el "cómo" técnico.

Evaluación manual

Análisis sin herramientas de apoyo.

PcD

Igualdad de oportunidades

Acceso a empleos realmente adaptables y adecuados.

Entidades

Decisiones objetivas

Jefes de Talento Humano con soporte técnico para cumplir la ley.

CNSC

Liderazgo en inclusión

Procesos que fomentan una cultura de inclusión real y medible.

SOLUCIÓN:Inclu-IA

Recomienda, con un enfoque inclusivo, las vacantes de la OPEC más adaptables para Personas con Discapacidad.

Desarrollar motor de IA

Crear un recomendador de plazas basado en Machine Learning.

PythonClustering

Estandarizar taxonomías

Definir criterios claros para discapacidades y ajustes.

ExcelEtic

Evolución del rol humano

El analista se convierte en validador de las recomendaciones de la IA.

Promting

Desafío 3: Imprevisibilidad en la demanda de procesos de selección

Incertidumbre contractual

Necesidad de adicionar contratos con operadores por estimaciones imprecisas.

Decisiones sin datos fácticos

Dificultad para que la Sala Plena apruebe procesos sin proyecciones confiables.

Costos imprecisos para entidades

El pronóstico es vital para delimitar el costo a cargo de las entidades.

El problema:

No es posible predecir la cantidad de inscritos para los procesos de selección, lo que obliga a planificar la logística "a ciegas".

Análisis histórico pobre

Ausencia de modelos de series de tiempo.

Visión parcial

No se consideran variables externas (mercado, características territoriales, etc.).

Modelos de análisis simplistas

Se asume una correlación lineal que no captura la alta variabilidad de las inscripciones.

Aspirantes

Mejor experiencia

Procesos de selección fluidos y bien organizados.

Entidades

Asignación eficiente

Recursos logísticos y humanos ajustados a la demanda real.

CNSC

Reducción de costos

Optimización del presupuesto al evitar sobreestimaciones.

SOLUCIÓN:Tendenc-IA

Pronostica con alta precisión el número de inscritos para optimizar la planificación logística y de recursos.

Implementar modelos

Usar algoritmos ARIMA y ML para forecasting.

PythonTime Series

Integrar variables

Incluir datos de mercado y socioeconómicos.

Excel

Evolución del rol humano

El contratista pasa de la logística reactiva a la planificación estratégica.

Promting

Desafío 4: Baja pertinencia en las pruebas de selección

Baja objetividad

Reducción de la imparcialidad en la selección.

Baja validez predictiva

Vinculación de personal que no cumple las expectativas del empleo.

Procesos no confiables

Pérdida de legitimidad del proceso.

El problema:

La estructuración de pruebas para procesos de selección bajo el modelo CNSC es un proceso manual que no garantiza su pertinencia y validez.

Desalineación prueba-empleo

Falta de conexión entre competencias e ítems.

Ejes temáticos discrecionales

Definidos por jefes de talento humano sin tener en cuenta el MEFCL.

Falta de bancos de ítems

Carencia de preguntas validadas y calibradas.

Aspirantes

Evaluaciones justas

Pruebas que evalúan el mérito y las competencias reales.

Entidades

Selección acertada

Mayor probabilidad de vincular al candidato idóneo.

Elegibles

Listas de calidad

Listas conformadas por el mejor talento disponible.

SOLUCIÓN:Competenc-IA

Garantiza la pertinencia de los ítems de prueba, asegurando que cada pregunta evalúe las competencias requeridas en el MEFCL.

Desarrollar pipeline

Crear un flujo semántico com NLP para alinear pruebas.

PythonEmbeddings

Crear bancos de ítems

Calibrar y validar preguntas usando TRI.

TRIPsicometría

Evolución del rol humano

El experto temático se enfoca en la calidad y validación de los ítems sugeridos por la IA.

Promting

Desafío 5: Análisis manual y subjetivo de empleos equivalentes

Decisiones inconsistentes

Afectación del principio de igualdad y riesgo jurídico.

Demoras en trámites clave

Retrasos en reincorporaciones y reclamaciones.

Vencimiento de listas

Listas de elegibles expiran sin poder ser utilizadas.

El problema:

Determinar si dos empleos son equivalentes depende de una comparación manual y subjetiva, creando un cuello de botella.

Evaluación manual

Análisis 100% dependiente de la lectura humana.

Subjetividad del analista

Interpretación variable del concepto "similar".

Falta de métricas

Ausencia de métricas objetivas para la comparación.

Servidores

Trámites ágiles

Resolución rápida de traslados y reincorporaciones.

Elegibles

Uso de listas de elegibles

Uso eficiente de listas en empleos equivalentes.

CNSC

Nuevos recursos ($)

Generación de ingresos por el cobro del uso de listas.

Servidores

Garantía del mérito

Se fortalece el principio del mérito sobre la provisionalidad.

SOLUCIÓN:Equivalenc-IA

Transforma el análisis de equivalencias en un proceso ágil, objetivo y consistente.

Implementar NLP

Usar un analizador semántico para comparar funciones.

PythonRoBERTa

Definir métricas

Establecer umbrales cuantitativos para la similitud.

Embeddings

Evolución del rol humano

El analista se convierte en supervisor de la IA, aportando juicio experto.

AI Colonialism