AI Act y Modelos Fundacionales: El Desafío de la Gobernanza Asimétrica
La Comisión Europea aborda el riesgo sistémico de los modelos fundacionales, obligando a una redefinición del enfoque regulatorio basado en la capacidad, no solo en la aplicación final.
La discusión actual en el seno de la Comisión Europea sobre las enmiendas finales al Reglamento de Inteligencia Artificial (AI Act) ha puesto de relieve la complejidad inherente a la regulación de los denominados foundation models. Estos modelos, caracterizados por su entrenamiento masivo y su versatilidad para diversas aplicaciones, plantean un desafío regulatorio distinto al de los sistemas de IA con un único propósito. El foco de la normativa se desplaza de la aplicación específica de alto riesgo al modelo subyacente que confiere la capacidad sistémica.
La clasificación de riesgo sistémico para estos modelos no se basa únicamente en el daño potencial causado por una aplicación final, sino en el impacto horizontal que su fallo, sesgo o manipulación podría tener en múltiples sectores críticos. Por ello, la regulación exige la implementación de medidas de gobernanza y transparencia a nivel del proveedor del modelo base. Esto incluye, por ejemplo, la documentación rigurosa de los datos de entrenamiento, la realización de evaluaciones de riesgo adversario y la aplicación de protocolos de ciberseguridad reforzados antes de la puesta en el mercado.
Desde una perspectiva jurídica, esta aproximación refleja una suerte de gobernanza asimétrica, donde las obligaciones regulatorias se concentran desproporcionadamente en los desarrolladores de los modelos más potentes. Este enfoque busca prevenir el riesgo ex ante en el punto de origen de la capacidad de la IA. No obstante, surge la pregunta sobre la proporcionalidad y la capacidad de las pymes y entidades académicas para cumplir con requerimientos tan exigentes, lo que podría generar barreras de entrada y centralizar aún más el desarrollo de IA en pocas corporaciones. La AI Act debe ponderar cuidadosamente el equilibrio entre la seguridad jurídica y la promoción de la innovación en el ecosistema europeo.
El éxito de la AI Act dependerá de su capacidad para establecer métricas objetivas y auditables que definan el umbral de "riesgo sistémico", evitando la ambigüedad y garantizando un marco de cumplimiento claro. La correcta definición de estos modelos es clave para diferenciar las obligaciones de la capa base y las de los implementadores finales.
¿Logrará el marco regulatorio europeo mantener la competitividad tecnológica mientras asegura una gobernanza eficaz del riesgo sistémico inherente a la IA más avanzada?
Referencias
Te puede interesar
El debate de la Comisión Europea se centra en cómo compensar la falta de transparencia de los algoritmos de alto riesgo y quién debe demostrar el nexo causal del daño.
El endurecimiento del ‘Due Diligence’ para VASP en la Directiva AML es clave para la seguridad financiera y la adopción institucional.
La Autoridad Alemana reafirma que el principio de finalidad del RGPD prevalece sobre la accesibilidad masiva de datos personales.
