Humanizar la Inteligencia Artificial. Orientaciones para un uso ético y transformador de la IA en la educación y la investigación en salud

-9- Humanizar la Inteligencia: Orientaciones para un uso ético y transformador de la IA en la educación y la investigación en salud No obstante, junto con estas potencialidades, emergen también desafíos relacionados con el pl agio automatizado, la opacidad algorítmica, la amplificación de sesgos, la delegación irreflexiva del juicio clínico y la erosión de la autoría académica (Crawford & Calo, 2016; Preiksaitis & Rose, 2023). 2.2 IA EN LA EDUCACIÓN EN SALUD Y EN INVESTIGACIÓN EN SALUD: SITUACIÓN ACTUAL La integración de IA en la formación médica aún se encuentra en una fase incipiente pero creciente, con experiencias dispersas y desiguales en cuanto a su profundidad y sistematicidad (Connolly et al., 2023). Si bien algunas escuelas han comenzado a incorporar módulos sobre IA clínica, pensamiento computacional o bioética de datos, aún predomina la ausencia de marcos curriculares consolidados que aborden de manera integral su enseñanza. En el caso de la investigación biomédica, la IA ha comenzado a ser utilizada en tareas como la exploración de literatura científica, el análisis estadístico de grandes bases de datos clínicos (big data), la identificación de patrones en estudios genómicos o la redacción asistida de manuscritos. No obstante, esta creciente dependencia de herramientas algorítmicas plantea interrogantes sobre la reproducibilidad de resultados, la opacidad de los modelos, y los criterios de autoría en publicaciones científicas (Boscardin et al., 2023). En el contexto latinoamericano, y particularmente en Chile, la evidencia empírica sobre el uso efectivo, ético y pedagógicamente significativo de la IA en educación en salud sigue siendo escasa, lo que refuerza la necesidad de avanzar en investigaciones situadas, experiencias piloto y políticas institucionales que orienten su adopción desde una perspectiva crítica, participativa y orientada al bien común (Molina & Medina, 2025).

RkJQdWJsaXNoZXIy Mzc3MTg=