Las tecnologías de inteligencia artificial (IA) presentan riesgos capaces de afectar a
personas, infraestructuras críticas, derechos fundamentales e incluso al funcionamiento
democrático. En Argentina, múltiples proyectos de ley buscan establecer marcos
regulatorios para su desarrollo, implementación y uso, pero lo hacen desde enfoques
heterogéneos. En este trabajo, el equipo de investigación de TecnocenoLab analiza esos
proyectos desde la perspectiva de la seguridad (safety) y establece un contrapunto con el
enfoque de la protección (security).
Para ello, se examinaron los proyectos de ley presentados en ambas cámaras del Congreso
Nacional argentino hasta diciembre de 2025. Se identificaron en total cincuenta y tres
proyectos relacionados con IA, de los cuales once proponen una ley integral. Sobre estos
últimos se realizó una revisión sistemática. El análisis se estructuró a partir de ocho
elementos clave: definición de IA, establecimiento de principios de la IA, definición de ciclo
de vida, definición inequívoca de seguridad y protección, identificación de categorías de
riesgo, modelo de gobernanza de la IA, tratamiento de incidentes y/o accidentes de IA y
perspectiva proactiva o reactiva con respecto a la seguridad y la protección. Esta matriz
analítica desarrollada por el TecnocenoLab es original y consideramos que es el aporte más
sustantivo de este artículo a futuras investigaciones y discusiones acerca de una política
integral para la IA.
Los datos muestran la necesidad de adoptar un enfoque estatal centrado en la seguridad
sistémica de la IA. Una regulación eficaz debe incorporar definiciones operativas, un ciclo
de vida preciso, taxonomías de riesgo y sistemas de gobernanza robustos, incluyendo
autoridades independientes de investigación, para mitigar peligros y fortalecer la protección
de la sociedad y del orden democrático.
Palabras clave: inteligencia artificial; gestión de riesgos de la IA; ética de la IA seguridad
sistémica; análisis normativo; leyes argentinas.