Listo para el nuevo modo de consentimiento de Google v2? Saber más »
Derecha

Reglamento de la UE sobre inteligencia artificial

string(0) ""

Cumplimiento del reglamento de la UE sobre inteligencia artificial consentmanager

El reglamento de la UE sobre IA entrará en vigor en agosto de 2024

Tras la primera propuesta de la Comisión Europea en abril de 2021, el Parlamento Europeo adoptó el Reglamento de Inteligencia Artificial de la UE. Se publicó en el Diario Oficial de la Unión Europea en julio de 2024 y ahora está disponible en los 24 idiomas oficiales de los estados miembros de la UE. El reglamento entrará oficialmente en vigor en agosto de 2024, aunque la mayoría de las disposiciones no se aplicarán hasta dos años después. Sin embargo, se aplican plazos diferentes para las disposiciones individuales. El reglamento establece obligaciones para las empresas que desarrollen y/o utilicen sistemas de inteligencia artificial en la Unión Europea.

Calendario de regulación de la IA de la UE

El Reglamento de IA de la UE se desarrollará e implementará de acuerdo con el siguiente cronograma:

Abril de 2021: Primera propuesta de la Comisión Europea
Marzo de 2024: adoptado por el Parlamento Europeo
Julio de 2024: Publicación oficial en el Diario Oficial de la UE
Agosto de 2024: el reglamento entra en vigor
Mediados de 2025: implementación total en todos los estados miembros de la UE

¿Qué es el Reglamento Europeo de Inteligencia Artificial?

La Ley Europea de IA 2024 es un reglamento de la Comisión Europea que tiene como objetivo garantizar que los sistemas de IA se utilicen de manera “segura, transparente, trazable, no discriminatoria y respetuosa con el medio ambiente” . El reglamento tiene como objetivo regular cómo los “proveedores” y “operadores” de sistemas de IA pueden manejar adecuadamente los sistemas de IA de acuerdo con los riesgos que plantean. Un «proveedor» de sistemas de IA es, en el sentido más amplio, una empresa que ofrece o desarrolla un sistema de IA bajo su propia marca. Los operadores son quienes utilizan tecnologías de IA. Por tanto, cualquier empresa puede pertenecer a este grupo. Cuanto mayor sea el riesgo del sistema de IA, más estrictos serán los requisitos reglamentarios.

Algunos puntos clave de la ley de IA de la UE

  1. Clasificación basada en riesgos: La Ley de IA clasifica los sistemas de IA en diferentes niveles de riesgo, cada uno con requisitos regulatorios específicos para gestionar sus impactos potenciales.
  2. Requisitos de transparencia: los sistemas de IA de alto riesgo deben cumplir estrictos requisitos de transparencia y mantenimiento de registros para garantizar la rendición de cuentas y la trazabilidad.
  3. Supervisión humana: ciertos sistemas de IA requieren supervisión humana para mitigar los riesgos y mantener estándares éticos.

Niveles de riesgo en la ley de IA de la UE

La Ley de IA define cuatro niveles de riesgo para los sistemas de IA, cada uno de los cuales está asociado con requisitos reglamentarios específicos:

Fuente : Publicación oficial de la Comisión Europea sobre la ley de IA

Riesgo inaceptable
Los sistemas de IA que caen por debajo de este nivel de riesgo representan una clara amenaza y están estrictamente prohibidos. Los ejemplos incluyen la manipulación del comportamiento a través de técnicas cognitivas como juguetes controlados por voz que engañan a los niños para que adopten comportamientos peligrosos, o sistemas de clasificación social que categorizan a las personas según su comportamiento o características personales.

Sistemas de IA de alto riesgo
Los sistemas de IA de esta categoría pueden tener impactos significativos en la salud, la seguridad o los derechos fundamentales. Ejemplos de esto incluyen la IA en la gestión de infraestructuras críticas, la educación, el empleo y la aplicación de la ley. Todos los sistemas de IA con potencial de alto riesgo deben someterse a pruebas rigurosas antes de salir al mercado y durante toda su vida útil. Las personas tienen derecho a informar inquietudes sobre los sistemas de IA a las autoridades nacionales pertinentes.

Riesgo limitado
Estos sistemas de IA plantean un riesgo bajo y están sujetos a requisitos de transparencia. Por ejemplo, los usuarios que interactúan con chatbots deben ser informados de que están hablando con una IA. Los proveedores también deben garantizar que el contenido generado por IA, particularmente sobre temas de interés público, esté claramente marcado como generado artificialmente, independientemente de si es texto, audio o video.

Riesgo mínimo o nulo
Los sistemas de IA con riesgo mínimo o nulo no están sujetos a requisitos regulatorios adicionales. Ejemplos de esto incluyen videojuegos controlados por IA y filtros de spam.

Cumplimiento e IA: lo que deberían hacer las empresas

Como explicó el Consejo Europeo en un comunicado de prensa de mayo , es importante evaluar el impacto en los derechos fundamentales antes de que determinadas empresas que prestan servicios públicos implementen un sistema de IA de alto riesgo.

Hay algunos puntos que los proveedores de sistemas de IA deben tener en cuenta:

  1. Realice una evaluación de riesgos determinando la categoría de riesgo del sistema de IA e implementando las medidas de protección necesarias.
  2. Cree documentación técnica para demostrar el cumplimiento y envíela a las autoridades para su revisión.
  3. Desarrollar el sistema de IA para registrar eventos automáticamente para detectar riesgos y cambios en el sistema.
  4. Crear pautas para que los operadores garanticen que se cumplan los requisitos.

Aunque los operadores no tienen las mismas obligaciones que los proveedores, la Ley de IA les exige cumplir con las pautas de uso, garantizar el cumplimiento organizativo y técnico y realizar una evaluación del impacto de la protección de datos antes de implementar sistemas de IA de alto riesgo.

El incumplimiento de la ley de IA de la UE puede dar lugar a multas que van desde 35 millones de euros, o el 7% de la facturación global, hasta 7,5 millones de euros, o el 1,5% de la facturación, dependiendo de la gravedad de la infracción y el tamaño de la empresa.

Los objetivos digitales de Europa y la Estrategia Europea de Datos definida para 2030 tienen como objetivo promover la competencia leal y aumentar la transparencia en los servicios en línea. Para las empresas, esto significa que deben garantizar que sus procesos respalden estos valores de protección de datos. Las leyes aprobadas recientemente, incluidas la Ley de Servicios Digitales y la Ley de Mercados Digitales , subrayan la importancia de la competencia leal y la transparencia. Al abordar los procesos internos y revisarlos en una etapa temprana, tanto los proveedores como los usuarios de sistemas de IA pueden evitar multas y aumentar la confianza de los consumidores. Mejore sus procesos de cumplimiento hoy haciendo clic aquí para comenzar.



Weitere Beiträge

Cookie-Crawler - Standalone-Tool
General, Nuevo

Boletín 11/2024

El rastreador de cookies ahora también está disponible como herramienta independiente ¡Nuestro Cookie Crawler es ahora aún más versátil y flexible! A partir de ahora también podrás utilizarlo como herramienta independiente, sin tener que crear un CMP independiente. La opción independiente es adecuada para clientes que (todavía) no desean cambiar el banner de cookies a […]
consentmanager Cookie-Audit Grafik

Auditoría de cookies para sitios web: cómo hacerlo manualmente o con un escáner de cookies

Como operador de un sitio web, usted es responsable de los datos de sus usuarios, que su sitio web recopila y almacena a través de cookies. Cualquier cookie que esté activa en su sitio web puede causar problemas de privacidad , especialmente si no se utiliza para el propósito previsto o, lo que es más […]

CMP

Ihre Fragen zu CMP & Co.

Wenn Sie sich nicht sicher sind, ob Sie ein CMP brauchen oder nicht, treten Sie gern in Kontakt mit uns – wir werden Ihnen helfen die richtige Lösung für Ihr Unternehmen zu finden.