Diseño e Implementación,
de las políticas públicas

Maestría en Políticas Públicas Comparadas

Diego Solís Delgadillo

EJERCICIO 1

¿Qué se está evaluando?

Capacidad de analizar condiciones de diseño que afectan implementación.

  • Se evalúa si puedes responder:

    • ¿Está bien formulado el problema?
    • ¿Hay capacidades para resolverlo?
    • ¿Hay consenso suficiente?

Ejercicio 1

Estructura recomendada

  1. Describir brevemente la política
  2. Identificar el problema público
  3. Aplicar variables de Ingraham
  4. Concluir: ¿qué riesgo de implementación existe?

Ocho variables para analizar el diseño (I)

  1. Características del problema (solubilidad/tractabilidad)
  2. Consenso sobre objetivos (acuerdos vs conflictos)
  3. Ubicación en la agenda (prioridad/ventana de oportunidad)
  4. Disponibilidad de instrumentos y alternativas (inercia + efectos esperados)

Ocho variables para analizar el diseño (II)

  1. Diversidad de partes interesadas (multiplicidad → más difícil consenso)
  2. Experiencia y conocimientos requeridos (capacidad técnica y dónde está)
  3. Recursos disponibles (lo deseable vs lo factible presupuestalmente)
  4. Responsables de implementación y criterios de evaluación (quién hace qué y cómo se mide)

EJERCICIO 2

¿Qué se está evaluando?

Capacidad de pensar instrumentos de política

Metáfora

  • El “plano” es el diseño general
  • Los instrumentos la “caja de herramientas”

Ejercicio 2

Lógica NATO

  • Todo instrumento usa uno de estos recursos:

🧠 Nodalidad (información)

⚖️ Autoridad (reglas)

💰 Tesoro (dinero)

🏢 Organización (capacidad directa)

Ejercicio 2

Lógica NATO

  • Cada recurso puede ser:

    • Detector: recolectar información
    • Efector: inducir efectos/acciones

Ejemplo NATO: detectores y efectores

Política: reducir la deserción escolar en bachillerato

Objetivo: disminuir el abandono escolar (permanencia y conclusión)

NATO — Detectores vs. Efectores

Recurso (NATO) Detectores (¿cómo sabemos qué pasa?) Efectores (¿cómo intentamos cambiar conductas?)
🧠 Nodalidad Sistema de alerta temprana (inasistencia, reprobación); encuestas a desertores; reportes de tutores Campañas sobre beneficios de concluir; mensajes personalizados a estudiantes en riesgo; info a padres sobre apoyos
⚖️ Autoridad Registro obligatorio de asistencia; auditorías; reportes administrativos de planteles Protocolos obligatorios de intervención temprana; reglas de permanencia; sanciones administrativas a planteles negligentes
💰 Tesoro Seguimiento de uso de becas; comparación abandono con/sin apoyos; evaluación costo–efectividad Becas condicionadas a permanencia; apoyos de transporte; incentivos a escuelas que reduzcan abandono
🏢 Organización Visitas de supervisión; evaluación de servicios de apoyo; monitoreo de tutorías Tutorías presenciales; orientación psicológica; programas de acompañamiento y recuperación académica

NATO — Detectores vs. Efectores

Recurso (NATO) Detectores Efectores
🧠 Nodalidad Alerta temprana; encuestas; reportes Campañas; mensajes; info a padres
⚖️ Autoridad Registro; auditorías; reportes Protocolos; reglas; sanciones
💰 Tesoro Monitoreo becas; evaluación costo–efectividad Becas condicionadas; apoyos; incentivos
🏢 Organización Supervisión; monitoreo de servicios Tutorías; acompañamiento; recuperación

EJERCICIO 3

¿Qué se está evaluando?

Capacidad de explicar por qué una política fracasó por su diseño.

  • No basta decir que no funcionó.
  • Debe explicarse el mecanismo causal del fracaso.

Ejercicio 3

Estructura tipo memorando

  1. Política y objetivo
  2. Evidencia de bajo desempeño
  3. Análisis de diseño
  4. Conclusión: qué falló y por qué

Ejercicio 3

Criterios a usar

  • De Salamon y literatura de diseño:
    • Efectividad
    • Eficiencia
    • Equidad
    • Administrabilidad
    • Viabilidad política

Caso ilustrativo

  • Política: programa municipal de alumbrado público con luminarias LED
  • Objetivo: reducir delitos nocturnos y consumo eléctrico
  • Resultado: bajo impacto en seguridad y alto costo de mantenimiento

Efectividad

¿Logra sus objetivos?

  • Las luminarias se instalaron solo en avenidas principales.
  • Los delitos ocurren principalmente en calles secundarias.

👉 Aunque el programa se implementó, no intervino en los espacios donde se concentra el problema, por lo que el diseño no fue efectivo para el objetivo de seguridad.

Eficiencia

¿Relación costo–beneficio razonable?

  • El costo por luminaria fue elevado por contratos centralizados.
  • El ahorro eléctrico no compensa el gasto de mantenimiento.

👉 El diseño genera altos costos por unidad de beneficio, por lo que el programa no es eficiente en comparación con otras posibles intervenciones de seguridad.

Equidad

¿Cómo se distribuyen costos y beneficios?

  • Colonias céntricas recibieron la mayoría de las luminarias.
  • Zonas periféricas con mayor incidencia delictiva quedaron fuera.

👉 El diseño reproduce desigualdades territoriales, por lo que los beneficios no llegan a los grupos más afectados por el problema.

Administrabilidad

¿Es fácil de operar y supervisar?

  • No se asignaron cuadrillas suficientes para mantenimiento.
  • No hay sistema de reporte de luminarias descompuestas.

👉 El programa depende de capacidades organizacionales que no fueron previstas en el diseño, lo que afecta su funcionamiento cotidiano.

Viabilidad política

¿Es sostenible en el tiempo?

  • Alto costo presupuestal anual.
  • Críticas por falta de impacto en seguridad.

👉 La combinación de costos altos y resultados limitados reduce el apoyo político, lo que pone en riesgo la continuidad del programa.