drag
  • Home
  • Noticias
  • La Supervisión de los Modelos Fundacionales con Riesgo Sistémico

La Supervisión de los Modelos Fundacionales con Riesgo Sistémico

La Oficina de IA activa los mecanismos de control sobre los modelos de propósito general que superan los umbrales de computación crítica establecidos por la AI Act.

La imagen presenta un mensaje sobre el rigor del Banco de España frente al blanqueo de capitales.

La Comisión Europea ha iniciado formalmente el procedimiento de evaluación para determinar si tres nuevos modelos fundacionales deben ser catalogados como poseedores de un "riesgo sistémico". Conviene recordar que un modelo fundacional se define como un sistema que se auto-supervisa y entrena aprendiendo de datos masivos, permitiendo su adaptación a múltiples tareas sin necesidad de ser reentrenado desde cero para cada aplicación. Bajo la AI Act, la IA de propósito general —aquella capaz de realizar una amplia gama de funciones distintas y de integrarse en innumerables aplicaciones verticales— se sitúa bajo un escrutinio especial cuando su capacidad de cómputo supera los 1025 FLOPS, u operaciones de punto flotante por segundo, umbral a partir del cual se presume un impacto transversal en la seguridad de la Unión.

Este hito marca el despliegue de una gobernanza proactiva, entendida como la implementación anticipada y diligente de sistemas de control y auditoría interna para identificar y gestionar los riesgos antes de que se materialicen. La clasificación como "sistémico" no es meramente nominal; obliga a los proveedores a realizar evaluaciones continuas, mitigar riesgos cibernéticos adversos y reportar incidentes graves a la Oficina de IA. El legislador europeo busca evitar que la opacidad técnica de estos modelos masivos derive en vulnerabilidades sociales imprevistas, exigiendo una trazabilidad total en los datos de entrenamiento y en los procesos de optimización algorítmica.

La regulación no busca frenar la potencia del cálculo, sino asegurar que la magnitud del impacto social de los modelos fundacionales sea proporcional a la responsabilidad legal y social de sus desarrolladores.

Observatorio CMS
Inteligencia Artificial
Compartir noticia:
Últimas noticias

Referencias

Te puede interesar

IMG_0917.jpeg
Observatorio CMS
25 de septiembre de 2024
Nace el Observatorio de Transformación Digital CMS Comillas: un referente en el análisis jurídico de la digitalización

Madrid, España – En un momento crucial para la regulación digital en Europa, la firma CMS Albiñana & Suárez de Lezo y la Universidad Pontificia Comillas han lanzado el Observatorio de Transformación Digital CMS Comillas, una iniciativa pionera que aspira a convertirse en el centro de referencia para el estudio del impacto legal de la digitalización.

Leer más

La imagen aborda los límites del 'Credit Scoring' automatizado, ilustrando conceptos clave sobre el tema.
Observatorio CMS , Ciberseguridad y Big Data
Límites al "Credit Scoring" Automatizado

El CEPD refuerza las garantías del ciudadano frente al tratamiento de macrodatos destinados a la calificación crediticia sin supervisión humana efectiva.

Leer más

La imagen presenta un mensaje sobre el rigor del Banco de España frente al blanqueo de capitales.
Observatorio CMS , Inteligencia Artificial
La Supervisión de los Modelos Fundacionales con Riesgo Sistémico

La Oficina de IA activa los mecanismos de control sobre los modelos de propósito general que superan los umbrales de computación crítica establecidos por la AI Act.

Leer más