drag
  • Home
  • Noticias
  • AI Act y Modelos Fundacionales: El Desafío de la Gobernanza Asimétrica

AI Act y Modelos Fundacionales: El Desafío de la Gobernanza Asimétrica

La Comisión Europea aborda el riesgo sistémico de los modelos fundacionales, obligando a una redefinición del enfoque regulatorio basado en la capacidad, no solo en la aplicación final.

La imagen presenta un texto relacionado con la gobernanza asimétrica en inteligencia artificial.

La discusión actual en el seno de la Comisión Europea sobre las enmiendas finales al Reglamento de Inteligencia Artificial (AI Act) ha puesto de relieve la complejidad inherente a la regulación de los denominados foundation models. Estos modelos, caracterizados por su entrenamiento masivo y su versatilidad para diversas aplicaciones, plantean un desafío regulatorio distinto al de los sistemas de IA con un único propósito. El foco de la normativa se desplaza de la aplicación específica de alto riesgo al modelo subyacente que confiere la capacidad sistémica.

La clasificación de riesgo sistémico para estos modelos no se basa únicamente en el daño potencial causado por una aplicación final, sino en el impacto horizontal que su fallo, sesgo o manipulación podría tener en múltiples sectores críticos. Por ello, la regulación exige la implementación de medidas de gobernanza y transparencia a nivel del proveedor del modelo base. Esto incluye, por ejemplo, la documentación rigurosa de los datos de entrenamiento, la realización de evaluaciones de riesgo adversario y la aplicación de protocolos de ciberseguridad reforzados antes de la puesta en el mercado.

Desde una perspectiva jurídica, esta aproximación refleja una suerte de gobernanza asimétrica, donde las obligaciones regulatorias se concentran desproporcionadamente en los desarrolladores de los modelos más potentes. Este enfoque busca prevenir el riesgo ex ante en el punto de origen de la capacidad de la IA. No obstante, surge la pregunta sobre la proporcionalidad y la capacidad de las pymes y entidades académicas para cumplir con requerimientos tan exigentes, lo que podría generar barreras de entrada y centralizar aún más el desarrollo de IA en pocas corporaciones. La AI Act debe ponderar cuidadosamente el equilibrio entre la seguridad jurídica y la promoción de la innovación en el ecosistema europeo.

El éxito de la AI Act dependerá de su capacidad para establecer métricas objetivas y auditables que definan el umbral de "riesgo sistémico", evitando la ambigüedad y garantizando un marco de cumplimiento claro. La correcta definición de estos modelos es clave para diferenciar las obligaciones de la capa base y las de los implementadores finales.

¿Logrará el marco regulatorio europeo mantener la competitividad tecnológica mientras asegura una gobernanza eficaz del riesgo sistémico inherente a la IA más avanzada?

Observatorio CMS
Inteligencia Artificial
Compartir noticia:
Últimas noticias

Referencias

Te puede interesar

Imagen que aborda la responsabilidad de la inteligencia artificial en el contexto del dilema de la carga de la prueba.
Observatorio CMS , Inteligencia Artificial
Responsabilidad por IA: El Dilema de la Carga de la Prueba

El debate de la Comisión Europea se centra en cómo compensar la falta de transparencia de los algoritmos de alto riesgo y quién debe demostrar el nexo causal del daño.

Leer más

La imagen presenta un texto que aborda el costo de la legitimidad de las criptomonedas en Europa.
Observatorio CMS , Criptomonedas
AML 6: El Coste de la Legitimidad Cripto Europea

El endurecimiento del ‘Due Diligence’ para VASP en la Directiva AML es clave para la seguridad financiera y la adopción institucional.

Leer más

La imagen presenta un mensaje sobre la protección de los datos públicos y las consecuencias del scraping.
Observatorio CMS , Ciberseguridad y Big Data
El Dato Público no es Dato Libre: Multa al Scraping

La Autoridad Alemana reafirma que el principio de finalidad del RGPD prevalece sobre la accesibilidad masiva de datos personales.

Leer más