La inteligencia artificial (IA) es la protagonista de los debates actuales. La semana pasada, por ejemplo, Donald Trump dio la campanada al difundir imágenes que parecían dar a entender falsamente que contaba con el apoyo de Taylor Swift, muchas de las cuales parecen haber sido creadas por IA.
El objetivo del nuevo Reglamento de Inteligencia Artificial 2024/1689 del Parlamento Europeo y del Consejo (en adelante, «RIA» o «el Reglamento») es prestar apoyo a la innovación, mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales y la prevención de los efectos dañinos de la IA.
Se trata de una labor importante y nada fácil (lo que se refleja en la amplitud del Reglamento, que incluye 180 considerandos, 113 artículos y 13 anexos), que la UE ha asumido mediante un enfoque basado en el riesgo, tal como se hizo con el RGPD y la normativa sobre ciberseguridad, con el fin de armonizar las normas y, al mismo tiempo, permitir la flexibilidad necesaria para adaptarse a las nuevas tecnologías.
Los métodos basados en el riesgo exigen que quienes puedan verse afectados evalúen su posición, y quienes consideren que sus actividades son de «alto riesgo» estarán sujetos a obligaciones y requisitos más estrictos que aquellos cuyas actividades sean de «bajo riesgo».
Redactado por Abigail Sked
Paralegal
El reglamento es complejo y será desarrollado en los próximos años por las opiniones de los expertos, las directrices oficiales y la legislación secundaria, por lo que este artículo pretende servir de guía resumida de las 10 cuestiones que consideramos más cruciales y curiosas para las empresas españolas.
En resumen, tendrás que seguir los siguientes pasos:
- Decidir si te afecta el Reglamento.
- Decidir si el sistema de IA que utilizas se consideraría prohibido, de alto riesgo, de uso general pero con riesgo sistémico, o de uso general.
- Decidir si eres el proveedor, importador, distribuidor o responsable del despliegue de ese sistema de IA ( podrías entrar en más de una categoría. A continuación lo explicamos con más detalle, pero las definiciones también pueden encontrarse en el artículo 3 del Reglamento)
- Conocer y cumplir tus obligaciones en función del tipo de sistema de IA que utilices y del papel que desempeñes en su interacción.
Contenido
-
Ámbito de aplicación: ¿Me afecta?
Si utilizas, desarrollas, importas, distribuyes o prestas servicios de IA a título profesional, es probable que esta ley te afecte. Ten en cuenta que incluso los proveedores establecidos fuera de la UE se verán afectados si sus servicios se ofrecen dentro de la UE. Por lo tanto, probablemente sea más útil examinar los ámbitos/grupos que quedan excluidos del ámbito de aplicación de este Reglamento:
Exclusiones del ámbito de aplicación del Reglamento (Artículo 2):
- Competencias de los Estados miembros en materia de seguridad nacional.
- Sistemas de IA introducidos en el mercado o utilizados exclusivamente con fines militares, de defensa o de seguridad nacional
- Autoridades públicas de un tercer país y organizaciones internacionales cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación internacional con fines de garantía del cumplimiento del Derecho y cooperación judicial con la Unión y ofrezcan garantías adecuadas de los derechos y libertades fundamentales.
- Disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios.
- Sistemas o modelos de IA, incluidos sus resultados de salida, desarrollados y puestos en servicio específicamente con la investigación y el desarrollo científicos como única finalidad.
- Actividades de investigación, prueba o desarrollo relativas a sistemas o modelos de IA antes de su introducción en el mercado o puesta en servicio.
- Actos jurídicos de la Unión relativos a la protección de datos personales, la protección de los consumidores y la seguridad de los productos.
- Personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.
-
Alfabetización en materia de IA (Artículo 4)
-
Prácticas de IA prohibidas (Artículo 5)
El RIA establece determinadas prácticas de IA que considera inapropiadas y, por tanto, prohíbe totalmente que se lleven a cabo o se desarrollen, como son:
- Técnicas subliminales, manipuladoras o engañosas utilizadas para mermar la capacidad de una persona para tomar una decisión informada y alterar así su comportamiento.
- Explotación de las vulnerabilidades de las personas físicas
- La «calificación social» de las personas físicas basada en su comportamiento o características, que provoca su trato perjudicial/desfavorable de forma injustificada o desproporcionada o en un contexto social que no guarde relación con los contextos donde se recogieron los datos originalmente.
- Evaluaciones de riesgo de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito, basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad.
- Creación o ampliación de bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de Internet o de los circuitos cerrados de televisión.
- Inferencia de las emociones de una persona física en los lugares de trabajo y los centros educativos, excepto cuando el uso del sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad;
- Los sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual (existen algunas excepciones).
- El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar alguno de los objetivos establecidos en el presente artículo.
- Otras prácticas de IA que infringen otras disposiciones del Derecho de la Unión.
-
Sistemas de IA de alto riesgo (Artículos 6-49)
Si el sistema de IA que tu empresa utiliza o desarrolla se clasifica como de alto riesgo, tu interacción con ese sistema estará sujeta a requisitos y obligaciones especialmente estrictos. Un resumen muy simplificado es que los sistemas de IA serán de alto riesgo cuando sean o proporcionen características de seguridad para productos sujetos a la normativa de armonización de la UE o cuando tengan por objeto proporcionar características de seguridad para infraestructuras críticas o cuando supongan un riesgo significativo de daño para la salud, la seguridad o los derechos fundamentales de las personas físicas, incluida la influencia material en el resultado de la toma de decisiones, especialmente en el caso de la elaboración de perfiles.
Un sistema se clasificará como de alto riesgo cuando:
- el sistema de IA está destinado a ser utilizado como componente de seguridad de un producto, o el propio sistema de IA es un producto, que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el anexo I; Y
- el producto del que el sistema de IA sea componente de seguridad, o el propio sistema de IA como producto, deba someterse a una evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión.
El anexo 3 enumera también una serie de sistemas que se considerarán de alto riesgo. Esto será especialmente relevante para quienes interactúen con sistemas de IA en los siguientes ámbitos:
- Biometría
- Infraestructuras críticas
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo
- Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicos esenciales.
- Garantía del cumplimiento del Derecho
- Migración, asilo y gestión del control fronterizo
- Administración de justicia y procesos democráticos
Requisitos de los sistemas de IA de alto riesgo
Los sistemas de IA de alto riesgo deben cumplir los requisitos establecidos en la sección 2 del RIA, teniendo en cuenta sus finalidades, así como el estado de la técnica generalmente reconocido en materia de IA y tecnologías relacionadas con la IA. El proveedor del sistema de IA es el responsable de garantizar que su producto cumple plenamente todos los requisitos aplicables.
- Se establecerá, implantará, documentará y mantendrá un sistema de gestión de riesgos en relación con los sistemas de IA de alto riesgo (artículo 9).
- Los sistemas de IA de alto riesgo que utilizan técnicas que implican el entrenamiento de modelos de IA con datos se desarrollarán a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad a que se refiere el artículo 10, incluida la adopción de medidas para evitar posibles sesgos, garantizando que los conjuntos de datos sean suficientemente representativos y carezcan de errores.
- La documentación técnica se redactará de modo que demuestre que el sistema de IA de alto riesgo cumple los requisitos. Se elaborará antes de su introducción en el mercado o puesta en servicio y se mantendrá actualizada (artículo 11 y anexo IV).
- Los sistemas de IA de alto riesgo deberán permitir técnicamente el registro automático de acontecimientos (archivos de registro) a lo largo de todo el ciclo de vida del sistema para detectar riesgos y vigilar el funcionamiento. (Artículo 12)
- Estos sistemas se diseñarán y desarrollarán de un modo que se garantice que funcionan con un nivel de transparencia suficiente para que los responsables de despliegue interpreten y usen correctamente sus resultados de salida y cumplan sus obligaciones. Esto incluirá instrucciones de uso claras y accesibles puestas a disposición de los responsables de despliegue (artículo 13)
- La supervisión humana tendrá por objeto prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que puedan surgir cuando se utiliza un sistema de IA de alto riesgo conforme a su finalidad prevista o cuando se le da uso indebido razonablemente previsible, y los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que lo permitan (artículo 14).
- Diseño y desarrollo que alcancen un nivel adecuado de precisión, solidez y ciberseguridad, y que garanticen que los sistemas de IA de alto riesgo funcionan de manera uniforme en esos sentidos a durante todo su ciclo de vida (artículo 15).
Obligaciones de los proveedores de sistemas de IA de alto riesgo
Hay muchas personas implicadas en la cadena de valor de la IA, entre ellas los importadores (artículo 23), los distribuidores (artículo 24), los responsables de despliegue (artículo 26) y terceros, todos los cuales están sujetos a sus propias obligaciones, pero cualquiera de ellos también puede estar sujeto a las obligaciones del proveedor si:
- Ponen su nombre o marca en un sistema de IA de alto riesgo;
- Modifican sustancialmente un sistema de inteligencia artificial de alto riesgo de modo que siga siendo de alto riesgo; o
- Modifican la finalidad prevista de un sistema de IA, incluido un sistema de IA de uso general, que no haya sido considerado de alto riesgo, de tal forma que se convierte en sistema de IA de alto riesgo.
Las obligaciones de los proveedores de sistemas de IA de alto riesgo se establecen en gran medida en los artículos 16 a 22 del RIA e incluyen:
- Garantizar que los sistemas de IA de alto riesgo cumplen los requisitos antes mencionados.
- Indicar su empresa y datos de contacto.
- Contar con un sistema de gestión de la calidad (artículo 17).
- Conservar la documentación pertinente (artículo 18)
- Cuando estén bajo su control, conservar los archivos de registro generados automáticamente por sus sistemas de IA de alto riesgo (artículo 19)
- Asegurarse de que el sistema de IA sea sometido al procedimiento pertinente de evaluación de la conformidad a que se refiere el artículo 43 antes de su introducción en el mercado o puesta en servicio.
- Elaborar una declaración UE de conformidad y colocar el marcado CE en el sistema, el embalaje o la documentación (artículos 47 y 48).
- Cumplir las obligaciones de registro (artículo 49).
- Cooperar con las autoridades nacionales competentes.
- Notificar cualquier incidente grave relacionado con el sistema de IA a las autoridades de vigilancia del mercado de los Estados miembros en los que se haya producido dicho incidente (artículo 73).
- Velar por que el sistema de IA de alto riesgo cumpla los requisitos de accesibilidad de conformidad con las Directivas (UE) 2016/2102 y (UE) 2019/882.
- (En el caso de proveedores establecidos en terceros países) Nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión antes de comercializar sus sistemas de IA de alto riesgo en el mercado de la Unión (artículo 22).
Aunque el proveedor es el principal responsable de que el sistema de IA de alto riesgo cumpla los requisitos mencionados, los importadores y distribuidores tienen la responsabilidad de verificar esta conformidad, de no comprometerla y de cooperar con las autoridades competentes pertinentes.
Obligaciones de los responsables de despliegue de sistemas de IA de alto riesgo (artículo 26)
Los responsables de despliegue de sistemas de IA de alto riesgo (es decir, quienes hagan uso de dichos sistemas con fines profesionales) deberán:
- Adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso que los acompañen.
- Encomendar la supervisión humana a personas físicas que tengan la competencia, formación y autoridad necesarias.
- (En la medida en que ejerza el control sobre los datos de entrada) asegurarse de que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema de IA de alto riesgo.
- Vigilar el funcionamiento del sistema de IA de alto riesgo basándose en las instrucciones de uso.
- Informar al proveedor o distribuidor y a la autoridad de vigilancia del mercado pertinente y suspender el uso del sistema cuando tengan motivos para considerar que su utilización conforme a las instrucciones puede dar lugar a un riesgo para la salud, la seguridad, o los derechos fundamentales de las personas.
- Conservar los archivos de registro generados automáticamente por el sistema de IA de alto riesgo en la medida en que estén bajo su control
- Cuando proceda, utilizar la información facilitada para cumplir la obligación de llevar a cabo una evaluación de impacto relativa a la protección de datos
- Cooperar con las autoridades competentes pertinentes
Algunos casos de uso específicos:
- Los responsables de despliegue de los sistemas de IA de alto riesgo a que se refiere el anexo III que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a las personas físicas de que están expuestas a la utilización de los sistemas de IA de alto riesgo.
- Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo.
- Los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas o instituciones, órganos y organismos de la Unión cumplirán las obligaciones de registro y no utilizarán sistemas que no hayan sido registrados en la base de datos de la UE.
- En el caso en que los resultados de salida de un sistema de IA de alto riesgo se utilicen para tomar decisiones sobre personas que produzcan efectos jurídicos o efectos significativos similares de manera que tengan un efecto perjudicial para su salud, su seguridad o sus derechos fundamentales, los responsables de despliegue deben atender a las personas afectadas en su derecho a obtener explicaciones claras y significativas sobre el papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión adoptada (artículo 86).
- En el marco de la investigación penal, los responsables de despliegue de sistemas de IA de alto riesgo para la identificación biométrica remota están sujetos a obligaciones específicas (artículo 26, apartado 10)
-
Evaluación del impacto relativa a los derechos fundamentales para los sistemas de IA de alto riesgo (artículo 27)
Con la excepción de aquellos sistemas destinados a ser utilizados como componentes de seguridad de infraestructuras críticas, los siguientes actores tendrán que llevar a cabo una evaluación de impacto relativa a los derechos fundamentales, siguiendo el procedimiento recogido en el artículo 27 del RIA, antes de desplegar un sistema de alto riesgo:
- Responsables de despliegue que sean organismos de Derecho público;
- Responsables de despliegue que sean entidades privadas que presten servicios públicos;
- Responsables de despliegue de sistemas de IA de alto riesgo que se utilicen para evaluar la solvencia crediticia o para llevar a cabo la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud.
-
Obligaciones de transparencia (artículo 50)
A algunos les preocupa que estemos avanzando hacia una época en la que nos resulte casi imposible saber si los contenidos con los que interactuamos se han generado por humanos o por IA. Por ello, el RIA establece ciertas obligaciones de transparencia tanto para quienes proporcionan como para quienes despliegan (utilizan) determinados sistemas de IA, independientemente de si son de alto riesgo o no. Hay algunas excepciones, sobre las que se encontrará más información en el artículo 50.
- Si eres proveedor de sistemas de IA destinados a interactuar directamente con personas físicas, éstas deben ser informadas de que están interactuando con un sistema de IA.
- Si eres proveedor de sistemas de IA que generan contenidos sintéticos de audio, imagen, vídeo o texto, los resultados de salida deben estar marcados en un formato legible por máquina y ser detectables como generados o manipulados de manera artificial.
- Si utilizas un sistema de reconocimiento de emociones o un sistema de categorización biométrica, debes informar a las personas físicas de su funcionamiento y tratar sus datos personales de conformidad con la legislación de la Unión.
- Si utilizas un sistema de IA que genera o manipula imágenes, o contenidos de audio o vídeo que constituyen una ultrasuplantación (que se asemejan a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos), debes hacer público que estos contenidos o imágenes han sido generados o manipulados de manera artificial.
- Si utilizas un sistema de IA que genera o manipula texto que se publica con el fin de informar al público sobre asuntos de interés público, debes divulgar que el texto se ha generado o manipulado de manera artificial, a menos que el contenido generado por IA se haya sometido a un proceso de revisión humana o de control editorial y cuando una persona física o jurídica tenga la responsabilidad editorial por la publicación del contenido.
Esta información debe facilitarse de forma clara y distinguible a más tardar con ocasión de la primera interacción o exposición de la persona física.
-
Modelos de IA de uso general (Capítulo V)
No sólo los sistemas de IA de alto riesgo estarán sujetos a obligaciones; los proveedores de modelos de IA de uso general también tendrán que respetar ciertas normas. Si tu empresa proporciona un modelo de IA de uso general, hay que:
- Elaborar y mantener actualizada la documentación técnica del modelo, incluida la información relativa al proceso de entrenamiento y realización de pruebas, y los resultados de su evaluación.
- Elaborar, mantener actualizada y poner a disposición de los proveedores de sistemas de IA que tengan la intención de integrar el modelo de IA de uso general en sus sistemas de IA la información y documentación necesarias para que puedan entender bien las capacidades y limitaciones del modelo y cumplir sus obligaciones.
- Establecer directrices para cumplir el Derecho de la Unión en materia de derechos de autor y derechos afines y, en particular, para detectar y cumplir, por ejemplo a través de tecnologías de punta, una reserva de derechos expresada.
- Elaborar y poner a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo de IA de uso general.
- Cooperar según sea necesario con la Comisión y las autoridades nacionales competentes en el ejercicio de sus competencias y facultades.
- (En el caso de proveedores establecidos en terceros países) Nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión antes de introducir en el mercado de la Unión un modelo de IA de uso general.
Existen algunas excepciones para los modelos de licencia libre y de código abierto. Consulta los artículos 53-54.
En cambio, los modelos de IA de uso general que se consideran de riesgo sistémico deben cumplir otras obligaciones (Artículo 55). Se trata de modelos que tienen capacidades de gran impacto evaluadas a partir de herramientas y metodologías técnicas adecuadas, como indicadores y parámetros de referencia. A título de orientación, se presumirá que un modelo de IA de uso general tiene capacidades de gran impacto cuando la cantidad acumulada de cálculo utilizada para su entrenamiento, medida en operaciones de coma flotante, sea superior a 1025.
Además de las obligaciones para los modelos de IA de uso general anteriormente mencionadas, los modelos de IA de uso general con riesgo sistémico también deberán:
- Evaluar los modelos de conformidad con protocolos e herramientas normalizados.
- Evaluar y mitigar los posibles riesgos sistémicos a escala de la Unión
- Vigilar, documentar y comunicar, sin demora indebida, a la Oficina de IA y, en su caso, a las autoridades nacionales competentes, la información pertinente sobre incidentes graves y posibles medidas correctoras para resolverlos.
- Velar por que se establezca un nivel adecuado de protección de la ciberseguridad para el modelo de IA de uso general con riesgo sistémico y la infraestructura física del modelo.
-
Códigos de buenas prácticas (Artículo 56)
La Oficina de AI fomentará y facilitará la elaboración de códigos de buenas prácticas a escala de la Unión a fin de contribuir a la correcta aplicación del presente Reglamento, teniendo en cuenta los planteamientos internacionales. Estos códigos estarán finalizados a más tardar el 2 de mayo de 2025.
-
Espacios controlados de pruebas para IA («AI Regulatory Sandboxes»)
«Espacio controlado de pruebas para la IA»: un marco controlado establecido por una autoridad competente que ofrece a los proveedores y proveedores potenciales de sistemas de IA la posibilidad de desarrollar, entrenar, validar y probar, en condiciones reales cuando proceda, un sistema de IA innovador, con arreglo a un plan de espacio controlado de pruebas y durante un tiempo limitado bajo supervisión regulatoria. Los Estados miembros velarán por que sus autoridades competentes establezcan al menos un espacio controlado de pruebas para la IA a escala nacional, que estará operativo a más tardar el 2 de agosto de 2026 (artículo 57).
Cualquier prueba de sistemas de IA de alto riesgo en condiciones reales fuera de los espacios controlados de prueba para IA debe cumplir las condiciones establecidas en el artículo 60 y contar con el consentimiento previo, libre e informado de los sujetos de la prueba.
-
Sanciones (artículos 99 - 101)
Los Estados miembros establecerán el régimen de sanciones y otras medidas de ejecución, como advertencias o medidas no pecuniarias. Las sanciones previstas deberán ser efectivas, proporcionadas y disuasorias y tener en cuenta los intereses de las PYME, incluidas las empresas emergentes, así como su viabilidad económica.
El RIA establece una escala de posibles multas administrativas:
- Por incumplimiento de la prohibición de determinadas prácticas de IA: Hasta 35.000.000 EUR o, si el infractor es una empresa, hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
- Por incumplimiento de las obligaciones y requisitos de los organismos notificados y de los actores de la cadena de valor de los modelos de IA de alto riesgo: Hasta 15.000.000 EUR o, si el infractor es una empresa, hasta el 3 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
- Por la presentación de información inexacta, incompleta o engañosa a los organismos notificados o a las autoridades nacionales competentes en respuesta a una solicitud: Hasta 7.500.000 EUR o, si el infractor es una empresa, hasta el 1 % del volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
- Multas impuestas por la Comisión a los proveedores de modelos de IA de uso general que hayan infringido o incumplido de forma deliberada o por negligencia las disposiciones del presente Reglamento: Multas que no superen el 3 % de su volumen de negocios mundial total anual correspondiente al ejercicio financiero anterior o de 15.000.000 EUR, si esta cifra es superior.
Otras consecuencias del incumplimiento incluyen:
- Orden de la autoridad nacional de vigilancia del mercado de suspender, poner fin o modificar las pruebas en condiciones reales que no cumplan las condiciones del RIA (artículo 76).
- Cuando la autoridad de vigilancia del mercado considere que un sistema de IA presenta un riesgo para la salud, la seguridad o los derechos fundamentales de las personas, exigirá que se adopten medidas correctoras para que el sistema de IA sea conforme, o la retirada o recuperación del sistema de IA del mercado. (artículo 79)
- Orden de la autoridad de vigilancia del mercado de subsanar el incumplimiento formal de las obligaciones relativas al marcado CE, las declaraciones UE de conformidad, la documentación técnica, etc. (artículo 83)
Este Reglamento de AI será aplicable con carácter general a partir del 2 de agosto de 2026.
No obstante, se aplican fechas de aplicación diferentes a determinadas secciones del Reglamento:
- Los capítulos I (Disposiciones generales) y II (Prácticas de IA prohibidas) se aplicarán a partir del 2 de febrero de 2025;
- El capítulo III, sección 4 (Autoridades notificantes y organismos notificados), el capítulo V (Modelos de IA de uso general), el capítulo VII (Gobernanza) y el capítulo XII (Sanciones) y el artículo 78 (Confidencialidad) se aplicarán a partir del 2 de agosto de 2025, a excepción del artículo 101 (Multas a proveedores de modelos de IA de uso general);
- La clasificación de determinados sistemas como sistemas de IA de alto riesgo con arreglo al artículo 6, apartado 1, en lo que respecta a las características de seguridad de un producto y a los productos sujetos a normas de armonización, y las obligaciones correspondientes del presente Reglamento se aplicarán a partir del 2 de agosto de 2027.
¿Buscas asesoramiento respecto al cumplimiento de las normativas de la UE y/o la forma en que tu empresa trata los datos personales? Ponte en contacto con nosotros para resolver tus dudas: