El Reglamento europeo de IA va a regular en profundidad el desarrollo, la comercialización y el uso de esta tecnología en la Unión.
Se trata de una norma extensa y compleja, de alto componente tecnológico, cuyo articulado diseña un intrincado conjunto de obligaciones a cargo tanto de las empresas como de las administraciones públicas que utilicen esta tecnología.
Cumplir el RIA va a exigir, a los profesionales del Derecho y a los de la tecnología, no solo de un estudio detallado de la norma.
También va a requerir de un diálogo permanente entre ellos y con expertos en otros ámbitos, como la ciencia de datos, la informática, la estadística, la sociología y la ética.
Ante ese panorama, el objetivo de este manual es ser una herramienta que ayude a los profesionales que deben aplicar de una u otra manera esta normativa, y a los estudiantes que se inician o continúan en su estudio, a conocer los principales contenidos de esta norma, a partir de un análisis sistemático de su contenido, a fin de facilitar su cumplimiento, al menos en los momentos iniciales de su entrada en vigor y aplicación.
ÍNDICE
INTRODUCCIÓN Importancia e implicaciones prácticas del Reglamento de IA El origen: La estrategia digital de la Comisión Europea de 2020 ¿Cómo se relaciona el RIA con el resto de la normativa europea y con los derechos nacionales? El Reglamento de IA y la normativa sobre protección de datos personales El Reglamento de IA y la normativa de la UE sobre productos El Reglamento de IA y la normativa sobre servicios digitales El Reglamento de IA y la normativa sobre derechos de autor y afines
UNAS CONSIDERACIONES PREVIAS SOBRE EL REGLAMENTO Un Reglamento llamado Ley No es la primera norma reguladora de la IA La importancia de los datos en el ámbito de la IA El Reglamento tardará en entrar en vigor (y en ser aplicable)
ESTRUCTURA Y VISIÓN GENERAL DEL REGLAMENTO
¿CUÁL ES EL OBJETIVO DEL REGLAMENTO? Impulsar la innovación, protegiendo a la vez los derechos de las personas ¿Qué significa una IA centrada en el ser humano ? ¿Qué significa una IA fiable ?
¿QUÉ SISTEMAS Y QUÉ PERSONAS ESTÁN SUJETAS AL REGLAMENTO? Ámbito de aplicación objetiva Introducir en el mercado un sistema de IA o un modelo de IA de uso general Poner en servicio un sistema de IA Utilizar un sistema de IA Otros supuestos de inclusión en el ámbito de aplicación del Reglamento Ámbito de aplicación subjetiva Proveedores Responsables del despliegue de sistemas de IA establecidos o ubicados en la Unión Proveedores y responsables del despliegue de sistemas de IA establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema se utilicen en la Unión Importadores y distribuidores de sistemas de IA Fabricantes de productos que introduzcan en el mercado o pongan en servicio un servicio un sistema de IA con su propio nombre o marca Representantes autorizados de los proveedores que no estén establecidos en la Unión Las personas afectadas que estén ubicadas en la Unión Modificación de responsabilidades a lo largo de la cadena de valor del sistema de IA
¿CÓMO SABER SI ESTOY SUJETO AL REGLAMENTO?
¿QUÉ ES UN SISTEMA DE IA? Características de los sistemas de IA Un sistema basado en una máquina Diseñado para funcionar con distintos niveles de autonomía Que puede mostrar capacidad de adaptación Para alcanzar objetivos implícitos o explícitos Puede inferir resultados a partir de los datos de entrada, en forma de predicciones, contenidos, recomendaciones o decisiones Directrices de la Comisión sobre la aplicación práctica del Reglamento en relación con la definición de sistema de IA Clasificación de los sistemas de IA Los modelos y sistemas de IA de uso general ¿Por qué este nuevo concepto? Modelos de IA de uso general que plantean un riesgo sistémico
¿QUÉ SISTEMAS DE IA ESTÁN SUJETOS AL REGLAMENTO? SUPUESTOS EXCLUIDOS Sistemas de IA utilizados en ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión Sistemas de IA que se introduzcan en el mercado, se pongan en servicio o se utilicen exclusivamente con fines militares, de defensa o de seguridad nacional Sistemas de IA utilizados por autoridades públicas de terceros países u organizaciones internacionales, en el marco de acuerdos internacionales o de cooperación con fines de cooperación policial y judicial con la Unión o sus Estados miembros Sistemas de IA cuya única finalidad es la investigación y el desarrollo científicos Sistemas de IA antes de su introducción en el mercado o puesta en servicio Sistemas de IA utilizados por personas físicas en el ejercicio de una actividad no profesional Sistemas de IA divulgados mediante licencias libres y de código abierto
LOS SISTEMAS DE IA PROHIBIDOS Consideraciones previas Elementos comunes de las prácticas prohibidas Entrada en vigor de estas prohibiciones Otros supuestos en los que cabe prohibir un sistema de IA Medidas para garantizar el cumplimiento del Reglamento Procedimiento de salvaguardia de la Unión Incumplimiento de los requisitos formales de los sistemas de alto riesgo Revisión de la lista de prácticas prohibidas Directrices de la Comisión sobre la aplicación del Reglamento en relación con las prácticas prohibidas Adopción de medidas correctoras por los proveedores de sistemas de IA de alto riesgo Sanciones específicas por el uso de sistemas prohibidos Multas administrativas específicas a instituciones, órganos y organismos de la Unión Deber de las autoridades de vigilancia del mercado de informar sobre las prácticas prohibidas Compatibilidad con otras prácticas prohibidas por la Unión Los sistemas prohibidos no pueden participar en los entornos controlados de pruebas Clasificación de las prácticas de IA prohibidas Prácticas de manipulación Prácticas de explotación Prácticas de control social
REGLAS PARA CONSIDERAR UN SISTEMA DE IA COMO DE ALTO RIESGO Criterios de clasificación de un sistema de IA como de alto riesgo Las reglas del número 1 del artículo 6 del Reglamento Las reglas del número 2 del artículo 6 y el Anexo III Excepción a la consideración de un sistema de IA como de alto riesgo Revisión de la clasificación del sistema realizada por el proveedor Directrices de la Comisión sobre la aplicación práctica del Reglamento en relación con estas reglas de clasificación Poderes de la Comisión para modificar la lista de sistemas de alto riesgo
REQUISITOS GENERALES QUE DEBEN CUMPLIR LOS SISTEMAS DE IA DE ALTO RIESGO Disponer, documentar y mantener un sistema de gestión de riesgos (art. 9) Asegurar la alta calidad de los datos utilizados para el entrenamiento del Sistema (art. 10)
Ofrecer una documentación técnica detallada sobre el sistema y su finalidad (art. 11). Contar con un registro de su actividad para garantizar la trazabilidad de los resultados (art. 12) Ser transparentes y ofrecer una información clara y adecuada al usuario (art. 13) Contar con medidas adecuadas de supervisión humana para minimizar el riesgo (art. 14) Ofrecer un alto nivel de solidez, seguridad y precisión (art. 15) Directrices de la Comisión en relación con la aplicación práctica del Reglamento en relación con estos requisitos y obligaciones
OBLIGACIONES ESPECÍFICAS DE LOS OPERADORES DE SISTEMAS DE IA DE ALTO RIESGO Obligaciones específicas de los proveedores de los sistemas de IA de alto riesgo Cumplir con los requisitos generales de los sistemas de alto riesgo Disponer de un sistema de gestión de la calidad Disponer de un sistema de conservación de la documentación Conservar los registros generados automáticamente Someter al sistema a un procedimiento de evaluación de conformidad Elaborar una declaración UE de conformidad Colocar el marcado CE, para indicar la conformidad con el Reglamento Registrar el sistema y al proveedor en la base de datos de la UE Establecer acciones correctoras y deber de información Cooperar con las autoridades competentes Designar un representante autorizado Garantizar que el sistema de IA de alto riesgo cumpla los requisitos de accesibilidad, de conformidad con la Directiva 2019/882 sobre los requisitos de accesibilidad de productos y servicios. Obligaciones de los importadores de sistemas de IA de alto riesgo Obligaciones de los distribuidores de sistemas de IA de alto riesgo Obligaciones específicas de los responsables del despliegue de sistemas de IA de alto riesgo El problema de la alfabetización en materia de IA Realizar una evaluación del impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo (Art. 27) El posible cambio de condición del operador de un sistema de IA a lo largo de la cadena de valor Evaluación por las autoridades de vigilancia del mercado de que un sistema de IA presenta un riesgo para la salud o la seguridad de las personas Obligaciones específicas de transparencia en relación con determinados sistemas de IA Sistemas diseñados para interactuar con personas (chatbots) Sistemas de IA, incluidos los sistemas de uso general, que generen contenidos sintéticos de audio, imagen, vídeo o texto Sistemas de reconocimiento de emociones y sistemas de clasificación biométrica Sistemas que generan o manipulan imágenes o audio de personas, haciéndolas pasar por auténticas (ultrafalsificación o deep fakes) Directrices de la Comisión sobre la aplicación práctica del Reglamento en relación con estas obligaciones de transparencia Medidas aplicables a sistemas de IA que no sean de alto riesgo. Los códigos de conducta Mecanismos para acreditar que un sistema de IA de alto riesgo cumple con el Reglamento Conformidad con normas armonizadas publicadas en el DOUE (art. 40) Cumplimiento de las especificaciones comunes establecidas por la Comisión (art. 41)
OBLIGACIONES DE LOS PROVEEDORES DE MODELOS DE IA DE USO GENERAL Obligaciones horizontales para todos los modelos de IA de uso general Obligaciones específicas de los proveedores de modelos de IA de uso general con riesgos sistémicos Supervisión e investigación del cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general Multas a proveedores de modelos de IA de uso general
OBLIGACIONES SIMPLIFICADAS DE LAS MICROEMPRESAS, LAS PYMES Y LAS EMPRESAS EMERGENTES Microempresas Pymes y empresas emergentes
SEGUIMIENTO POSTERIOR A LA COMERCIALIZACIÓN Y VIGILANCIA DEL MERCADO
ESPACIOS CONTROLADOS DE PRUEBAS PARA LA IA. ENSAYOS DE IA Espacios controlados de prueba para la IA Pruebas de sistemas de IA de alto riesgo en condiciones reales Ensayos de IA en la Unión
LOS ORGANISMOS EUROPEOS DE GOBERNANZA DE LA IA La Oficina de la IA El Consejo Europeo de IA El Foro consultivo El Grupo de expertos científicos independientes Autoridades nacionales competentes
VÍAS DE RECLAMACIÓN O RECURSO ANTE INFRACCIONES DEL REGLAMENTO Derecho a presentar una reclamación ante la autoridad de vigilancia del mercado por infracción del Reglamento Derecho a obtener una explicación del responsable del despliegue por decisiones adoptadas en base a los resultados de sistemas de IA de alto riesgo
RÉGIMEN SANCIONADOR Sanciones Multas administrativas
RESPONSABILIDAD CIVIL POR DAÑOS DERIVADOS DEL USO DE SISTEMAS DE IA
ENTRADA EN VIGOR Y APLICACIÓN Plazos previstos en el RIA EL AI Pact
SISTEMAS DE IA Y MODELOS DE IA DE USO GENERAL INTRODUCIDOS EN EL MERCADO ANTES DE LA FECHA DE APLICACIÓN DEL REGLAMENTO
EL ALCANCE DEL REGLAMENTO EN ALGUNOS SECTORES ESPECÍFICOS Pequeñas y medianas empresas y empresas emergentes Contrato de trabajo y relaciones laborales Sector financiero y bancario
EL MARCO JURÍDICO DE LA IA EN ESPAÑA La Estrategia Española de IA La Agencia Española de Supervisión de la IA El espacio controlado de pruebas (sandbox) de la IA
95959
Ficha técnica
Autor
Hernández Fernández, Carlos
Editorial
La Ley
Idioma
Castellano
ISBN
978-84-10292-49-9
Fecha de Publicación
20-01-2025
Nº de páginas
300
Encuadernación
Rústica
Nº edición
1
Comentarios (0)
No hay reseñas de clientes en este momento.
Su agradecimiento a la reseña no pudo ser enviado
Reportar comentario
¿Está seguro de que quiere denunciar este comentario?
Reporte enviado
Su reporte ha sido enviado y será considerada por un moderador.
Su reporte no pudo ser enviado
Escriba su propia reseña
Reseña enviada
Su comentario ha sido añadido y estará disponible una vez sea aprobado por un moderador.