Experiencias en América Latina: el desafío de evaluar programas de seguridad ciudadana

13 que explicarían el cambio – al menos en dos momentos: una vez sin intervención y otra vez post intervención. Luego, durante la implementación del proyecto viene un tercer momento que responde a la pregunta: ¿cómo convertimos nuestra propuesta en una buena práctica?De acuerdo a lo revisado, ello implica generar las condiciones para el aumento de la asociatividad entre los equipos ejecutores, los estándares de calidad de la gestión y permitir – o al menos no coartar – la innovación. Finalmente, al término de la intervención y pasados algunos meses, corresponde evaluar resultados o impacto. Si hemos realizado línea base, entonces, corresponde el segundo momento de la medición de las mismas variables y con los mismos instrumentos. Si no hemos podido realizar línea base, podríamos, al menos, comparar los resultados de nuestros grupos intervenidos con otros que no lo hayan sido. Acompañando lo anterior, los equipos ejecutores deben hacer sus propios balances, buscar explicaciones procesuales que sean satisfactorias para ellos y para las autoridades acerca de por qué se produjeron o no los cambios, incluyendo aquellos no previstos. Es el momento de la sistematización de la experiencia proveyendo a otros de evidencia cuantitativa y cualitativa para futuros aprendizajes. Obviamente, en el esbozo de integración que hemos ofrecido entre las nociones de intervenciones basadas en evidencia y buenas prácticas de prevencióndeldelito,losactoresnoparticipanencondicioneshorizontales. Hay responsabilidades distintas a nivel del organismo que diseña la política pública y sus programas, de aquellos que ejecutan sus componentes o proyectos. A los primeros, les corresponderá diseñar intervenciones de política pública basándose en la evidencia disponible sobre qué funciona en las realidades locales concretas que se desea modificar, y luego, invertir fuertementeenevaluacionescientíficasquedemuestrenonosilosmodelos han sido eficaces en dichas realidades . Para los segundos (una vez que el modelo “ha bajado” como programa), les corresponde compenetrarse con la intervención y darle un sentido que va más allá de cumplir con los resultados mínimos exigibles. Ello implica también tener una actitud de vigilancia científica sobre su propia práctica, generando datos y registros – sean éstos exigidos por la autoridadono–paramostrar el día demañana si sus intervenciones son exitosas o no y por qué. Bibliografía Campell, D. (1969) Reforms as experiments, American Psychologist, 24: 409-429. ICPC (2008). Compendio Internacional de Prácticas sobre la prevención de la Criminalidad para fomentar la acción a través del mundo. Montreal: Centro Internacional para la Prevención del Crimen. ICPC (2010). Prevención de la Criminalidad y Seguridad Cotidiana: Tendencias y Perspectivas. Montreal: Centro Internacional para la Prevención del Crimen. Dammert, L. y Lunecke. A. (2004). La Prevención del Delito en Chile. Una visión desde la Comunidad. CESC, U de Chile. Mulone, M. (2010). Note d’analyse relative aux techniques d’évaluation en prévention. Montreal: Centro Internacional para la Prevención del Crimen. NCPC (2008). Promising and Model Crime Prevention Programs , Public Safety Canada, Ottawa. Thomton, N., Craft, C., Dahlberg, L, Lynch, B. & Baer, K. (eds.) (2000). Prácticas óptimas para la prevención de la violencia juvenil: libro de referencia para la acción comunitaria. Atlanta: Centros para el Control y la Prevención de Enfermedades. Atlanta: Centro Nacional para el Control y Prevención de Lesiones. Zúñiga, L. (2007). Participación comunitaria en prevención del delito: experiencias de América Latina y Europa. En: Dammert, L. y Zúñiga, L. (eds.) Seguridad y Violencia: desafíos para la ciudadanía. Santiago: FLACSO Chile.

RkJQdWJsaXNoZXIy Mzc3MTg=