Home > Noticias > Legislación > Europa aprueba el Reglamento de IA. ¿Y ahora qué?

Legislación

Legislación (15 Marzo 2024)

Europa aprueba el Reglamento de IA. ¿Y ahora qué?

La semana pasada se aprobó en el pleno del Parlamento Europeo el Reglamento de Inteligencia Artificial. Es el paso más relevante en el proceso de aprobación. Esta legislación, establece un marco normativo integral para el uso de sistemas de IA en los Estados miembros de la UE, priorizando la seguridad, la transparencia y la responsabilidad.

Lo más significativo del reglamento es su enfoque en la clasificación de los sistemas de IA según el nivel de riesgo que presentan. Esta estrategia permite una regulación más precisa y eficaz, con robustos estándares de seguridad y defensa de los derechos fundamentales. Estos estándares serán cruciales para prevenir el uso de la IA en aplicaciones que podrían ser represivas, manipulativas, intrusivas o discriminatorias.

El Reglamento de Inteligencia Artificial de la UE establece un precedente de cómo se pueden regular tecnologías emergentes de manera efectiva y ética, sin sacrificar la innovación.

Se espera que esta ley tenga un impacto significativo no solo en Europa, sino también como modelo regulatorio a nivel global, fomentando un desarrollo y uso de la IA que sea seguro, ético y respetuoso con los derechos y las libertades fundamentales.

Categorización de los niveles de riesgo

Riesgo inaceptable: Esta categoría incluye aquellos sistemas de IA que representan una amenaza directa a la seguridad pública, los derechos fundamentales o la privacidad. Su uso está estrictamente prohibido, salvo en situaciones muy excepcionales.

Alto Riesgo: Aquí se clasifican los sistemas de IA que podrían tener un impacto considerable en los derechos fundamentales de los individuos por su relación con servicios y procesos que afectan a la salud, la seguridad, el empleo, etc. Su uso esta´ permitido siempre que se cumpla con ciertas salvaguardas adicionales y se monitorice su funcionamiento.

Bajo Riesgo o riesgo inexistente: Finalmente, los sistemas que no se ajustan a las categorías anteriores se consideran de bajo riesgo. Es importante destacar que esta clasificación no es explícita, sino más bien por exclusión. En esta categoría prima la capacidad de decisión de los ciudadanos de forma libre, informada, voluntaria e inequi´voca para el uso de estas tecnologi´as. Algunos sistemas se incluyen en esta categori´a de riesgo bajo (por ejemplo, los sistemas de IA generativa, chatbots, etc.) con algunas obligaciones concretas de transparencia.

Sistemas de Reconocimiento Biométrico: Un Enfoque en Consentimiento y Riesgo

Este Reglamento de IA introduce una importante distinción en el uso de tecnologías biométricas, poniendo de hecho como cuestión clave para su clasificación el hecho de que el usuario conozca el sistema y decida libremente sobre su uso.

Así, las aplicaciones de reconocimiento biométrico que involucran una participación activa y consciente del usuario, demostrando su conocimiento y aprobación, se considerarán de bajo riesgo.

Este enfoque destaca la importancia del consentimiento en la era digital.

Por otro lado, la Identificación Biométrica Remota (RBI), concepto que implica la no participación activa del usuario y comúnmente asociada a la vigilancia masiva, se clasifica como de alto riesgo. Además, cuando esos sistemas de RBI se emplean en tiempo real en espacios abiertos al público y con fines policiales, su uso quedará prohibido salvo en supuestos muy excepcionales en los que, en todo caso, deberi´an aplicarse medidas de seguridad adicionales. Entre las aplicaciones consideradas de bajo riesgo, se incluyen la verificación biométrica para la apertura de cuentas y el control de acceso físico a edificios y recintos de forma voluntaria.

La Identificación Biométrica No Remota: Clasificada de Bajo Riesgo

Un ejemplo claro de esta clasificación como bajo riesgo es la verificación de identidad mediante Autenticación Facial no remota, donde la participación activa y consciente del ciudadano es un requisito esencial.

Esta clasificación refleja un compromiso con la protección de la privacidad y la seguridad en el uso de tecnologías biométricas. Las características que definen a estas tecnologías biométricas y que justifican su clasificación como de bajo riesgo son:

  • Privacidad Garantizada: Los vectores biométricos utilizados en estos sistemas no revelan directamente la identidad del individuo.
  • Irreversibilidad: Es imposible recuperar la imagen facial original a partir del vector biométrico, lo que garantiza la protección de los datos personales.
  • Exclusividad y No Interoperabilidad: Cada sistema utiliza vectores biométricos únicos, impidiendo su uso cruzado entre distintos fabricantes y aplicaciones.
  • Cifrado Avanzado: Los datos biométricos se protegen mediante encriptación robusta, asegurando su seguridad.
  • Revocabilidad: Los vectores biométricos pueden ser actualizados o cancelados, proporcionando flexibilidad y seguridad en caso de compromiso de los datos.
  • Equidad y Sin Sesgo: Compromiso con una precisión equitativa para todos los grupos, promoviendo un tratamiento justo y ético.
  • Estos sistemas biométricos no están diseñados para inferir características personales, como el estado de salud, estado de ánimo, género u otro tipo de información acerca de los usuarios.

Beneficios de la Inteligencia Artificial en las Empresas

El uso correcto de la Inteligencia Artificial ofrece no solo seguridad, sino también eficacia y precisión en las respuestas a las demandas de los clientes. Al contar con soluciones 100% propias, que se actualizan y entrenan constantemente, las empresas pueden asegurar una operación más segura y eficiente.

Esta evolución constante en la IA se ve reflejada en tecnologías que cuentan con certificaciones de alta calidad y precisión, como el NIST o iBeta, garantizando la confiabilidad y eficiencia de sus aplicaciones.

Otro aspecto crucial es la capacidad de la IA para verificar identidades de forma rápida y segura. Esta eficiencia no solo ayuda a las empresas a ahorrar costes de gestión, sino que tambie´n eleva el nivel de protección de la identidad, un factor clave en el entorno empresarial actual.

A pesar de los desafíos que implica su implementación, como la necesidad de datos de alta calidad y garantizar transparencia y responsabilidad, los beneficios que la IA puede aportar son notables. Un estudio de KPMG indica que más del 50% de las empresas consideran que la IA será esencial para su crecimiento en los próximos años.

Entrada en vigor del Reglamento Inteligencia Artificial y pro´ximos pasos

Este miércoles 13 de marzo del 2024 se aprobó en el pleno del Parlamento Europeo la aprobación del Reglamento de Inteligencia Artificial. Después, se entrará en los plazos de Ratificación del Consejo y después en las firmas por los presidentes y secretarios generales del Parlamento y del Consejo, y publicacio´n en el DOUE.
A partir de ese momento, comenzará a contar el plazo para su aplicación, que irá desde los 6 meses (finales de 2024) hasta los 24 meses (año 2026) para el conjunto del reglamento.

En cuanto a los próximos pasos, la UE creará una oficina de inteligencia artificial para supervisar la implementación del Reglamento.

El Futuro de las Leyes sobre Inteligencia Artificial: Una Perspectiva Global

La reciente legislación de la Unión Europea sobre Inteligencia Artificial no solo establece un precedente dentro de sus fronteras, sino que también se perfila como un modelo influyente a nivel global. Este enfoque podri´a guiar a otros pai´ses en la formulacio´n de sus propias poli´ticas de IA, equilibrando innovación y regulación e´tica.

El ‘Sandbox Regulatorio‘ de España es un ejemplo de cómo los países miembros de la UE están implementando y adaptando el marco del Reglamento de Inteligencia Artificial a nivel nacional.

Esta iniciativa, que es una adición al reglamento europeo, muestra cómo España se adelanta en la creación de un ambiente seguro y controlado para el desarrollo de soluciones de IA, alineándose con los términos y el alcance del Reglamento.

En paralelo, el Reino Unido está avanzando en la protección de los usuarios en el espacio digital a través del ‘Online Safety Bill‘. Este tipo de legislación representa un paso significativo hacia la garantía de un entorno digital más seguro y responsable.

La confluencia de estos esfuerzos regulatorios, incluyendo la legislación de la UE, evidencia una tendencia global hacia la regulación de tecnologías emergentes. El enfoque común subraya la importancia de proteger los derechos individuales y promover la seguridad en la era digital.

El Reglamento de Inteligencia Artificial de la UE, en particular, simboliza un avance significativo en la regulación de la IA a nivel internacional. Establece un estándar para la adopción ética y segura de la tecnología, influyendo en la legislación futura en otras naciones.

Con este equilibrio entre la protección de sus ciudadanos y el impulso a la innovación responsable, la Unión Europea no solo resguarda los intereses de sus ciudadanos, sino que también lidera el camino hacia un futuro más ético y seguro en el ámbito de la inteligencia artificial.

Fuente: Veridas