En el seminario internacional: “La revolución digital, desafíos, riesgos y oportunidades para la seguridad y salud en el trabajo” celebrado en Santiago de Chile y organizado por el Instituto de seguridad laboral, he presentado una propuesta teórica y práctica enfocada en la seguridad y salud aplicada a la inteligencia artificial (IA).
Aquí un abstrac de mi presentación y el video completo.
Revolucion digital.mp4 – Google Drive
La IA debe ser entendida, medida, valorada y gobernada dentro de un marco de referencia específico:
Las IA se define tambien como Metatecnologías que operan y regulan otras tecnologías, funcionando como tecnologías de propósito general que automatizan procesos y facilitan la producción de conocimiento. Además de ser herramientas, son un Mundoambiente y constituyen una Sociedad artificial que acelera la (re) producción de lo social. Por otro lado ética de la IA, según nuestra propuesta, debe complementarse con la ética organizacional y el pensamiento sistémico, considerando el impacto social desde el mismo diseño y por último debido a su naturaleza e impacto, las IA son consideradas Tecnologías de alto riesgo.
Es indudable que la digitalización y automatización presentan oportunidades para mejorar la seguridad y la salud en el trabajo (SST), pero también introducen riesgos potenciales que requieren políticas proactivas. Los riesgos potenciales asociados incluyen accidentes relacionados con fallos mecánicos, ergonomía, ruido y factores psicosociales como la protección de la privacidad, el estrés derivado de la vigilancia continua, la fatiga visual, la sobrecarga cognitiva y el tecnoestrés. Al diseñar un sistema de IA, el desafío fundamental es obtener los recursos para cumplir objetivos de producción y, simultáneamente, salvaguardar el propio sistema y a los usuarios de peligros (externos e internos) durante todo su ciclo de vida.
Las amenazas al sistema pueden clasificarse en Uso Malicioso (intención de daño, como ciberataques o fraudes) y Accidentes (suceso adverso sin intención de daño, provocado por la combinación de factores). Para responder a ellas se propone un enfoque desde la seguridad sistémica (en el sentido del término inglés systemic safety).
La Seguridad Sistémica es un modelo de gestión basado en la teoría de sistemas cuyo objetivo es lograr que los riesgos asociados a los sistemas de IA se reduzcan y controlen a un nivel aceptable. Esta gestión de riesgos debe aplicarse a lo largo de todo el ciclo de vida del sistema, que incluye: Diseño, Prueba, Certificación, Validación, Implementación – Uso, Salida del Mercado. El objetivo es asegurar que el sistema de IA sea puesto en uso con un nivel de riesgo mínimo (probabilidad y severidad de causar daño).
La propuesta Teórico-Práctica que presento incluye:
- La Formación de un equipo interdisciplinario y capacitación en seguridad sistémica aplicada a la IA.
- La Investigación sistémica de accidentes.
- La Aplicación del modelo de industrias ultraseguras y organizaciones de alta fiabilidad (High Reliability Organization HRO), adaptado a la especificidad de la IA.
- La Adopción de estándares internacionales (ISO) y buenas prácticas para garantizar la seguridad y salud del trabajador.

