Buenas Prácticas de Simulación: cómo hacer que un modelo “in silico” sea confiable

En los últimos años, la simulación computacional ha dejado de ser “solo I+D” para convertirse en evidencia complementaria (y a veces decisiva) en el desarrollo de dispositivos médicos, fármacos y otras tecnologías sanitarias. Este avance trae una pregunta inevitable: ¿cómo demostramos que una simulación es suficientemente confiable para apoyar decisiones reguladoras y clínicas?

12/14/20253 min leer

El informe Toward Good Simulation Practice (2024) propone una respuesta concreta: definir y aplicar Buenas Prácticas de Simulación (Good Simulation Practice, GSP), de forma análoga a lo que ya existe en biomedicina con GLP (Good Laboratory Practice) o GCP (Good Clinical Practice).

¿Qué es “Good Simulation Practice” y por qué importa?

En regulación, la evidencia tradicional es observada (ensayos, estudios, bench tests). En cambio, la evidencia de modelado y simulación es predicha, no observada. Por eso, además de “tener un modelo”, necesitamos probar su credibilidad en el contexto exacto donde se va a usar. La propia FDA reconoce el potencial del modelado y simulación (M&S) y la necesidad de mayor estandarización del flujo de trabajo: ahí es donde GSP se vuelve clave para consistencia y confianza.

Primer concepto clave: el Contexto de Uso (CoU)

Un modelo no es “bueno” o “malo” en abstracto. Un modelo es confiable para una pregunta concreta y en un contexto de uso (Context of Use, CoU) definido: qué decisión apoya, con qué alcance, y cómo se combina con otras evidencias (in vitro, in vivo, clínica). El documento también propone una manera clara de entender para qué se usa una metodología “in silico”: reducir, refinar o reemplazar experimentación (in vitro/ex vivo, animal o humana). Esto no es solo eficiencia: también es ética y sostenibilidad.

Segundo concepto clave: riesgo → nivel de exigencia

La simulación debe evaluarse con un enfoque basado en riesgo: no exige lo mismo un modelo de bajo impacto que otro que podría cambiar una decisión crítica. En el marco ASME VV-40, el riesgo del modelo depende de:

  • Influencia del modelo (cuánto pesa frente a otras evidencias), y

  • Consecuencia de la decisión (qué pasa si el modelo se equivoca).

Ese riesgo define cuánta verificación, validación, cuantificación de incertidumbre y análisis de aplicabilidad se requiere para considerarlo “suficientemente creíble”.

Tercer concepto clave: desarrollar modelos como software “de verdad”

Un modelo computacional es, en la práctica, un artefacto de software. Por eso, GSP insiste en prácticas de ingeniería: requisitos, diseño, control de versiones, documentación y pruebas sistemáticas. En proyectos de mayor riesgo, el propio enfoque recomendado es escalar hacia estándares y prácticas más estrictas, manteniendo siempre trazabilidad entre: CoU → requisitos → diseño → implementación → tests → versiones.

Cuarto concepto clave: credibilidad técnica (VVUQ + aplicabilidad)

Para modelos predominantemente mecanísticos, el documento apoya el enfoque clásico de VVUQ:

  • Verification (Verificación): ¿está bien implementado el modelo y resuelve bien las ecuaciones?

  • Validation (Validación): ¿las predicciones se parecen a datos experimentales comparables?

  • Uncertainty Quantification (UQ): ¿cómo afectan las incertidumbres de entrada al resultado?

  • Applicability (Aplicabilidad): ¿hasta dónde se puede extrapolar con seguridad lo validado?

Además, se propone pensar en niveles de credibilidad: desde predecir “dentro del rango poblacional” (L1), hasta acertar valores individuales (L3). No siempre hace falta L3: depende del CoU y del riesgo.

¿Y qué pasa con modelos basados en datos (IA/ML)?

Aquí el mensaje es muy directo: los modelos data-driven pueden sufrir concept drift (pierden precisión con el tiempo si cambian datos, práctica clínica o población). Por eso, su credibilidad no debería tratarse como “validación única y congelada”, sino como un plan de control de cambios y re-evaluación periódica (Predetermined Change Control Plan).

En otras palabras: si el modelo aprende del mundo, el mundo cambia; y tu control de calidad debe contemplarlo.

Roles y gobernanza: Sponsor e Investigator no son opcionales

GSP no es solo técnica. También es organización, responsabilidades y evidencia documental.

  • El Sponsor debe definir CoU, asignar recursos, asegurar calidad (riesgo “critical-to-quality”), mantener supervisión y, cuando externaliza simulaciones, auditar aspectos críticos como control de versiones, estándares y documentación.

  • El Investigator (modellers/analysts) debe asegurar recursos, mantener versionado de código/datos/resultados, reportar de forma regular, y aplicar medidas de seguridad y privacidad (p. ej., GDPR cuando aplique).

Checklist práctico: “¿estamos trabajando en GSP?”

Si estás desarrollando o evaluando una metodología in silico, estas preguntas ayudan a aterrizarlo:

  1. ¿La pregunta y el CoU están escritos y entendidos por todos?

  2. ¿Se estimó el riesgo del modelo (influencia × consecuencia)?

  3. ¿Existe un plan de desarrollo del modelo con requisitos trazables?

  4. ¿Hay versionado, documentación y pruebas automatizables por release?

  5. ¿La validación usa comparadores adecuados y bien caracterizados?

  6. ¿Se cuantificó incertidumbre y se delimitó aplicabilidad?

  7. Si es IA/ML: ¿hay plan de control de cambios y re-test periódico?

  8. ¿Quedó todo reportado y “audit-able”?

Como equipo enfocado en tecnología médica, en Luperca Médica, GSP es una necesidad: si una simulación va a influir en decisiones de salud, debe ser reproducible, trazable y defendible.

El valor no está solo en “correr simulaciones”, sino en construir evidencia técnica y documental que aguante revisión interna, clínica y regulatoria, alineada al riesgo y al contexto real de uso.