13 de marzo de 2026

controlandoelejido.com

Tu Portal digital dominicano en new york

¿Sabe usted hablarle a la IA? El nuevo requisito para los diseñadores de políticas públicas que usan esta tecnología

IA
Compártelo en tus redes

La efectividad de la IA generativa en la resolución de problemas públicos depende de la estructuración precisa de las instrucciones. Compañías como OpenAI, Anthropic e IBM impulsan la estandarización técnica para evitar respuestas genéricas

La Inteligencia Artificial (IA) generativa se está integrando de manera progresiva en las instituciones gubernamentales como una herramienta para el procesamiento de datos y la formulación de propuestas de políticas públicas. Sin embargo, en etapas de implementación inicial, los funcionarios a menudo obtienen respuestas genéricas o inaplicables al contexto operativo del Estado.

Las principales compañías desarrolladoras de estos modelos coinciden en que este déficit no responde a una limitación de la tecnología, sino a la ausencia de una técnica específica en la interacción: la ingeniería de instrucciones o Prompt Engineering. En el ámbito público, la viabilidad de un documento generado por IA está estrictamente condicionada por el nivel de detalle, las restricciones y el contexto proporcionado en la solicitud original.

¿Cómo dejar de improvisar con la IA?

La industria tecnológica ha comenzado a emitir directrices formales para transicionar del ensayo y error a flujos de trabajo institucionalizados.

Recientemente, OpenAI (desarrolladora de ChatGPT) introdujo los denominados «Prompt Packs» orientados específicamente a sectores como el gubernamental. Según la documentación de la compañía, estas bibliotecas de instrucciones preconfiguradas buscan evitar el prompt hacking (la manipulación improvisada de la IA) y estandarizar tareas críticas como la redacción de políticas, el análisis fiscal o la revisión de auditorías de proveedores.

Por su parte, Anthropic, creadora del modelo Claude, establece en sus guías de ingeniería que los modelos responden óptimamente cuando se separa de manera explícita el contexto de las instrucciones. La empresa recomienda el uso de delimitadores técnicos (como etiquetas XML) para estructurar la información y sugiere incluir el comando «piensa paso a paso» (chain-of-thought) para activar el razonamiento lógico del modelo antes de emitir una respuesta.

En la misma línea, IBM enfoca su capacitación en IA corporativa y gubernamental en técnicas como el few-shot prompting (proporcionar ejemplos previos de la respuesta esperada) para garantizar que los modelos generen resultados coherentes y con el tono institucional adecuado, minimizando la variabilidad en las respuestas.

El método RCTPF: ¿Cómo estructurar un prompt efectivo?

A partir de las directrices de estas compañías, los equipos de modernización del Estado están adoptando estructuras estandarizadas para la formulación de consultas. El esquema más utilizado sintetiza las recomendaciones de la industria en cinco variables clave (a menudo resumidas en metodologías como RCTPF):

  1. Rol: Define la perspectiva técnica que debe asumir el modelo. Anthropic enfatiza que no basta con pedir «escribe un informe», sino definir el perfil: «Actúa como un urbanista senior».
  2. Contexto: Proporciona los datos demográficos, geográficos y antecedentes históricos.
  3. Tarea: Especifica la acción concreta requerida (redactar un borrador, comparar legislaciones).
  4. Parámetros y Restricciones: Establece los límites del proyecto. Siguiendo las recomendaciones de OpenAI, aquí se delimitan presupuestos, marcos normativos vigentes o la exclusión explícita de ciertas metodologías.
  5. Formato: Determina la estructura de presentación. Las guías técnicas exigen ser literales: solicitar una matriz tabular, un código específico o un memorándum ejecutivo.

¿Cómo aplicar la IA en el ciclo de las políticas públicas?

La implementación de parámetros estructurados permite utilizar la IA en distintas fases de la gestión pública con un margen de error reducido:

1. Fase de diagnóstico

Al abordar problemas complejos, como la congestión vehicular en Santo Domingo, una consulta abierta genera respuestas inespecíficas. Aplicando metodologías de contexto (como sugiere Anthropic), el funcionario introduce estadísticas precisas del flujo vehicular local y solicita la elaboración de un árbol de problemas fundamentado en principios de movilidad sostenible. El resultado pasa de ser una opinión general a un esquema técnico de causalidad.

2. Fase de diseño de intervenciones

Durante la formulación de programas, como iniciativas para reducir la brecha digital rural, los parámetros restrictivos se vuelven críticos. Al requerir a la IA un borrador de plan nacional, el funcionario instruye al sistema para que priorice alianzas público-privadas, establezca un horizonte de sostenibilidad a cinco años y descarte tecnologías que excedan el presupuesto disponible. Esta parametrización obliga al modelo a generar propuestas ajustadas a la realidad fiscal.

3. Fase de monitoreo y evaluación

En la estructuración de mecanismos de control, la IA se utiliza para sistematizar métricas. Al solicitar una matriz de evaluación, se implementa la técnica de proporcionar ejemplos (few-shot recomendada por IBM), instruyendo al modelo para que separe indicadores de gestión (ej. cantidad de beneficiarios) de indicadores de impacto (ej. tasa de inserción laboral), estructurando la información en una tabla estandarizada.

Riesgos y alucinaciones ¿Por qué es indispensable el factor humano?

La adopción de sistemas de IA en la administración pública exige la aplicación de protocolos estrictos de mitigación de riesgos. Tanto OpenAI como Anthropic e IBM documentan en sus manuales técnicos el fenómeno de las «alucinaciones», una falla intrínseca de los grandes modelos de lenguaje donde la IA genera datos falsos, legislaciones inexistentes o citas erróneas con un alto grado de verosimilitud.

Por normativa de seguridad de la información, ninguna cifra o dato estadístico generado por IA debe ser incorporado en documentos gubernamentales sin validación técnica.

Adicionalmente, para mitigar los sesgos algorítmicos, se instruye a los funcionarios a incluir parámetros de equidad en sus consultas, obligando al sistema a analizar los impactos diferenciados de una política en poblaciones vulnerables.

La integración de estas herramientas opera bajo el consenso de la industria: el principio de supervisión humana (Human-in-the-Loop). La IA sistematiza la información y propone lineamientos bajo estructuras optimizadas de prompts, pero la validación legal, el escrutinio ético y la responsabilidad política de la implementación final recaen exclusivamente en la administración pública.

A modo de demostración práctica, Acento puso a prueba este marco de trabajo para abordar un problema cotidiano de la ciudad. Utilizando la siguiente instrucción: «Eres un urbanista experto y profesional. Piensa paso a paso y diseña una propuesta de política pública completa e integral de bajo costo para reducir en un 50 % la cantidad de motoristas que se pasan el semáforo en rojo en el Distrito Nacional. Entrega en un PDF, por favor», este medio recibió en cuestión de segundos una propuesta técnica estructurada.

Propuesta de política pública